حواستان باشد، شاید یادگیری عمیق به تولید هوش مصنوعی همه‌کاره نینجامد

 هوش مصنوعی و یادگیری عمیق مدتهاست که در کانون توجه قرار دارند. گری مارکوس (Gary Marcus) در مقاله‌ای جدید ادعا میکند یادگیری عمیق «رونقی غیرمنطقی» داشته است.

GREG WILLIAMS

 

در اوت 2015، عده‌ای از کاربران فیسبوک که به دقت انتخاب شده بودند قابلیت جدیدی در پیامرسان فیسبوک شان مشاهده کردند. این قابلیت M نام داشت و قرار بود رقیب سرویس Google Now و سیری اپل باشد: یک دستیار خصوصی که با زبان طبیعی به سؤالات کاربر جواب دهد، میز رستوران را رزرو کند، برای کاربر تاکسی اوبر بگیرد، و با این کارها قدمی در راه فهم بهتر زبان طبیعی بردارد، دستیاری مجازی که –بر خلاف سیری- عملکردش ناامیدکننده نباشد.

چند سال از آن ماجرا گذشته و دستیار خصوصی همه فن حریف فیسبوک از محصولات این شرکت کنار گذاشته شده است. بیچاره M. قرار بود برای کاربرهای فیسبوک جوک تعریف کند، راهنمایی شان کند، مرشد زندگی آنها باشد و همزمان ابزار بهینه سازی هم باشد.

شکست M از آنجایی شروع شد که رویکرد جدیدی اتخاذ کرد: به جای اینکه [در شبکه عصبی اش] فقط از هوش مصنوعی استفاده کند از یک لایۀ انسانی هم استفاده کرد –انسانها روی کار هوش مصنوعی نظارت میکردند. اگر سؤالی یا درخواستی به ماشین میرسید که از عهده حل آن بر نمی آمد انسانها برای حل مسئله مداخله میکردند و با این کار الگوریتم را آموزش میدادند.

ماجرای دستیارهای مجازی در چنین وضعی قرار دارد: درست زمانی که احتمال میرود فناوری انقلابی ما –یعنی یادگیری عمیق- شکست بخورد و به عقب برگردد، انتظارات ما بیش از حد بالا رفته است (دقیقاً مثل وعدۀ خانه‌های هوشمند یکپارچه، که بر خلاف جدیدترین ابداعات صنعت الکترونیک در نمایشگاه CES، گویا از عهده برآورده کردن حتی یک نیاز انسان هم عاجز است –منظورم Cloi است). با تحریف حرف پیتر تیل (Peter Thiel) میتوان گفت: قرار بود هوش مصنوعی همه کاره به ما بدهند اما خدمتکاری داده اند که فقط بلد است محتویات یخچال را نگاه کند و به ما بگوید ساندویچ درست کنیم. چه دوران باشکوهی!

داستانهای امیدوارکننده میگویند قرار است هوش مصنوعی همه جا باشد و در همۀ اشیا به کار رود، درست مانند اکسیژن. قرار است به ما در تفسیر عکسهای رادیولوژی، در توسعۀ علم، در فهم زبانهای بیگانه بدون یادگیری قبلی کمک کند و به ما اطمینان دهد اتومبیلهای خودران دقیقاً همانگونه رفتار میکنند که ازشان انتظار داریم. قرار است پیشرفتهای بزرگی در کشاورزی، در پزشکی، و در علم رخ بدهد. قرار است دولتها راه مبارزه با بی عدالتی و جرم و جنایت را پیدا کنند.

اما خب هنوز به آن مرحله نرسیده ایم. گری مارکوس (Gary Marcus)، مدیر پیشین هوش مصنوعی اوبر و استاد دانشگاه نیویورک میگوید شاید هیچ وقت به آن مرحله نرسیم. مارکوس –که در کنفرانس سیستمهای  پردازش اطلاعات عصبی دسامبر سال گذشته با دمیس هسابیس (Demis Hassabis) عضو پروژۀ دیپ‌مایند مناظرۀ صریحی در این خصوص داشت- به خاطر نظرات دلسردکننده اش در مورد شور و هیجان فعالین حوزۀ فناوری برای توسعۀ تحقیقات یادگیری ماشینی مشهور است. او در مقاله ای با عنوان یادگیری عمیق: ارزیابی انتقادی که اوائل ماه جاری منتشر شد از «ملاحظاتی» سخن گفت که اگر قرار است مشهورترین تکنیک هوش مصنوعی [یعنی یادگیری عمیق] به ساخت هوش همه کاره منجر شود باید آنها را در نظر گرفت. مارکوس میگوید این حوزه ممکن است دچار «رونق غیرمنطقی» شده باشد و راه حل هایی برای گذر از این مرحله ارائه میدهد.

مارکوس میگوید در مسائلی که مجموعه داده ها بزرگ است و داده ها [از پیش شناسایی شده اند و] برچسب دارند و قدرت محاسباتی محدود نیست، یادگیری عمیق ابزار بسیار قدرتمندی است. اما «سیستمهای مبتنی بر یادگیری عمیق معمولاً باید از داده های خاصی که مشاهده کرده اند فراتر بروند، از تلفظ یک کلمه جدید بگیرید تا تصویری که با تصاویر قبلی دیده شده توسط نرم افزار متفاوت است، و هرچه داده های از پیش شناسایی شده از بی نهایت کمتر باشند توانایی برهان های صوری ما برای تضمین عملکرد عالی نرم افزار محدودتر میشود.»

مارکوس در آن مقاله ده مورد را نام میبرد که یادگیری عمیق در آنها محدودیت دارد. مثلاً نیاز به مجموعه های برچسب خوردۀ بسیار بزرگ یکی از محدودیتهای یادگیری عمیق است. در کاربردهایی مثل شناسایی تصویر، هر چه مجموعه داده های اولیه کمتر باشد نرم افزار یادگیری عمیق در موقعیت های جدید با مشکلات بیشتری مواجه میشود (مثلاً ممکن است برچسب دایره ای شکل پارک ممنوع را با توپ اشتباه بگیرد). مارکوس تأکید میکند «عمیق» در اصطلاح «یادگیری عمیق» به ماهیت ساختاری سیستم اشاره دارد –یعنی تعداد لایه های زیاد شبکه عصبی- و نه به مفاهیمی مثل درک عمیق یا فهم عمیق. «الگوهایی که این شبکه ها پیدا میکنند را نمی‌توان به طور مستقیم به مفاهیم انتزاعی مثل “عدالت”، “دموکراسی”، یا “فضولی” تعمیم داد» چون به نظر مارکوس الگوهایی که با این روش پیدا میشود اغلب خیلی سطحی نگرانه است.

مدلهای یادگیری عمیق مربوط به زبان روزمره هم مشکل دارند. به نظر مارکوس، فناوری فقط همبستگی کلمه ها را در یک سطح پیدا میکند و نه در سطوح سلسله مراتبی. «درنتیجه، سیستمهای یادگیری عمیق مجبورند به ویژگیهایی از متن مثل ترتیب قرارگرفتن کلمات در یک جمله بپردازند که به هیچ وجه برای درک متن کفایت نمیکند.» بر همین اساس مارکوس معتقد است فناوری برای دستیابی به استنتاج های جدید، با تکیه بر اطلاعات قبلی از جهان واقعی، محدودیت دارد. بنابراین، ماشینها نمیتوانند فرق جملۀ «علی به مریم قول داد حواسش باشد» و جملۀ «علی قول داد حواسش به مریم باشد»[1] را درک کنند.

مدلهای یادگیری عمیق مربوط به زبان روزمره هم مشکل دارند. به نظر مارکوس، فناوری فقط همبستگی کلمه ها را در یک سطح پیدا میکند و نه در سطوح سلسله مراتبی. «درنتیجه، سیستمهای یادگیری عمیق مجبورند به ویژگیهایی از متن مثل ترتیب قرارگرفتن کلمات در یک جمله بپردازند که به هیچ وجه برای درک متن کفایت نمیکند.»

یکی دیگر از مشکلات یادگیری عمیق مسئله شفافیت است. میلیونها یا حتی میلیاردها پارامتر شبکۀ عصبی فقط بر اساس موقعیت قرارگیری شان در شبکه نامگذاری و شناسایی میشوند و نه بر اساس «برچسبهای قابل فهم انسانی». مارکوس معتقد است در حوزه هایی مثل اقتصاد و پزشکی، پژوهشگران نمیتوانند  بفهمند علت اینکه فلان تصمیم [توسط شبکه عصبی] گرفته شده است چیست. فقدان این شفافیت ممکن است به تثبیت پیشداوری های سیستماتیک در داخل شبکه عصبی منجر شود که از دید پژوهشگران پنهان است.

در پژوهشهایی که بدون استفاده از دانسته های قبلی انجام میشود هم به وضوح  پیشداوری رخ میدهد: یادگیری عمیق معمولاً خودبسنده است و اغلب فقط همبستگی [داده ها] را پیدا میکند و کاری با مفاهیم انتزاعی ندارد. «مسائلی که حل آنها نیاز چندانی به دسته بندی داده ها ندارد و حل آنها بیشتر به استفاده از عقل سلیم نیازمند است اصولاً خارج از حیطۀ کار یادگیری عمیق قرار میگیرند، و تا جایی که من میدانم، یادگیری عمیق حرف چندانی در حل این نوع مسائل ندارد.»

محدودیت دیگر یادگیری عمیق این است که روی مجموعه داده های ثابت و پایدار عملکرد خوبی دارد –مثل بازی گو (Go) یا شطرنج- اما در محیطهای پویا و متغیر مثل اقتصاد عملکردش به آن خوبی نیست. یا در کاربردهایی مثل شناسایی تصویر به راحتی «فریب میخورد»، یعنی چیزی را که درست «میبیند» اشتباه تفسیر میکند. علاوه بر این، ماهیت روش یادگیری عمیق طوری است که مهندسی کردن آن دشوار است چون نه شفافیت دارد نه قابلیت عیب یابی دارد و نه زبان برنامه نویسی.

مقاله مارکوس آشکارا میگوید برخلاف شور و هیجان زیادی که پیرامون توانایی های این حوزه وجود دارد یادگیری ماشینی به شدت دشوار است. پیشرفتهای بزرگی در این حوزه انجام شده است اما پژوهشگران راه بسیار درازی تا استفاده از یادگیری ماشینی در مسائلی فراتر از دسته بندی الگوها پیش رو دارند.

به نظر مارکوس، شور و هیجان پژوهشهای شرکتهایی مثل دیپ‌مایند قابل فهم است اما بعید است در کوتاه مدت پیشرفت قابل ملاحظه ای در این حوزه رخ بدهد. علم در این حوزه مانند سایر حوزه ها به صورت آهسته در طول زمان توسعه پیدا خواهد کرد. از مسیرهای سخت اولیه هوش مصنوعی عبور کرده ایم اما شاید در حال نزدیک شدن به پرتگاه سرخوردگی باشیم. مارکوس برای روشن شدن نکته مورد نظرش از جفری هینتون (Geoffrey Hinton) که خیلی ها او را پدر یادگیری ماشینی میدانند نقل میکند: «علم با مرگ نسلها پیشرفت میکند. آینده را دانشجویی خواهد ساخت که به همه آنچه من گفته ام شدیداً مشکوک است». البته عین همین جمله را هم باید درمورد حرفهای خود مارکوس گفت.

مسائلی که حل آنها نیاز چندانی به دسته بندی داده ها ندارد و حل آنها بیشتر به استفاده از عقل سلیم نیازمند است اصولاً خارج از حیطۀ کار یادگیری عمیق قرار میگیرند، و تا جایی که من میدانم، یادگیری عمیق حرف چندانی در حل این نوع مسائل ندارد.

[1]  توضیح مترجم: منظور مارکوس ارائه یک نمونه از تغییر بنیادین معنای جمله فقط بر اثر تغییر ترتیب کلمات است. من به جای جملات انگلیسی جملات فارسی آوردم چون ترجمۀ جملات انگلیسی نکته را روشن نمیکند. دو جمله انگلیسی از این قرار است: John promised Mary to leave و John promised to leave Mary که میتوان این دو را کاملاً ضد هم به این صورت فهمید که در جملۀ اول جان به ماری قول میدهد او را راحت بگذارد و در جملۀ دوم جان قسم میخورد ماری را ترک کند.

 

 

 

لینک مطلب

اشتراک مقاله

خبرنامه

درج نظر

خبرنامه شناخت پژوه

دریافت نکات برجسته از مهم ترین اخبار ارسال شده به صندوق ورودی ایمیل شما