رفتن به محتوای اصلی

لزوم آموختن زبان‌های برنامه‌نویسی و نقص ندانستن آن در مسیر طلبگی


من به‌صورت طلبگی ذهنم را عرض می‌کنم. ممکن است بگویند تو اشتباه می‌کنی. اما ذهنیت من این است. جلوتر هم مکرر عرض کرده‌ام. وقتی ما المنطق مباحثه می‌کردیم، حیثیاتی که سر از هزاران حیثیت در می‌آورد ما را مأیوس می‌کرد. بعد از این‌که با زبان‌های برنامه‌نویسی آشنا شدم، نفس راحتی کشیدم. شما هم که در سن جوانی هستید! یک زمانی بود که اگر کسی این زبان‌ها را نمی‌دانست کمالی را نداشت، اما وقتی جلو می‌روید اگر این زبان‌ها را ندانید کمبود دارید. حدود ده سال پیش به یکی از اعزه عرض کردم؛ پارسال به من گفت تو قبلاً به من گفتی اما حالا دارم می‌بینم که چرا به حرف تو گوش ندادم. زیاد هم لازم نیست وقت بگذارید. روزی ده دقیقه یا پنج دقیقه برای آن وقت بگذارید، بعد از دو- سه سال می‌بینید انواع این زبان‌ها را می‌دانید و ذهن شما با آن مانوس است و دستتان به کد می‌رود. این‌ها چیزهایی است که نیاز است. این‌طور نیست که بخواهید همین‌طور فقهی بحث کنید و از نزدیک چیزی را نبینید.

چنین رباتی را در نظر بگیرید که تست تورینگ را پشت سر گذاشته است؛ از نظر رفتارگرائی واجد هوش عمومی است. یعنی فرض می‌گیرید یک برنامه‌نویس کارهای آن ربات را انجام داده و آن را رها کرده و الآن یادگیری ماشین به‌خاطر این هوش عمومی در حد بالا است. اَبَر هوش هم اگر بعداً بیاید جای خودش. فعلاً فرض مثال ما این است.

خُب مهندسی که این ربات را تهیه کرده، از نظر فنی چون هوش عمومی دارد، هیچ مشکلی نیست که بعداً خود این ربات سرقت مسلحانه را یاد بگیرد. سرقت مسلحانه‌ای را یاد می‌گیرد که خود مهندسی که برنامه را نوشته اولاً بلد نیست؛ ثانیاً اگر بفهمد قرار است ربات او بعداً سرقت مسلحانه بکند هرگز این کار را نمی‌کند. ولی خُب خبر ندارد. او می‌خواهد رباتی باشد که کاری را انجام بدهد. بالاترین فرض را داریم می‌گوییم تا محل نزاع به‌خوبی روشن شود.

حالا این ربات آمد و خودش سرقت مسلحانه را یاد گرفت. بعداً هم اتومبیلی را گرفت و راننده اش را کشت و بعد از قتل هم اتومبیل را برد. الآن محل نزاع ما چنین چیزی است. مثالی را گفتم که مقصود من را برساند. الآن که این ربات این کار را کرد، کشتن راننده با الگوریتم سرقتی که یاد گرفته و خودش به دست آورده، مستند به چه کسی است؟

شاگرد: احتمالش را هم نمی‌داد که ممکن است یاد بگیرد؟

استاد: احتمال نمی‌داد. مثل چاقوی در آشپزخانه. کارخانه آن چاقو را نساخته بود تا با آن سر ببرد. مغازه‌دار هم آن را نفروخته بود تا او سر کسی را ببرد. اصلاً این را احتمال نمی‌دادند.

شاگرد٢: مستند به صاحب آن است. می‌گویند آن را فروخته یا واگذار شده.

استاد: من حرفی در این جواب‌ها ندارم. اما می‌خواهم دقیقاً محل نزاع روشن شود. منظور من نقص و خرابی مثال نیست. منظور من این است که به جایی می‌رسیم که هوش مصنوعی آن روال، اقدام و ترفند کار را خودش به دست آورده است. به خودش استناد دارد. اینجا محل نزاع ما است. یعنی الآن در فضای فقه به جایی رسیده‌ایم که خود هوش مصنوعی این کار را کرده است. شما نمی‌توانید بگویید چون فلانی برنامه آن را نوشته باید مچ او را گرفت. این اصلاً عقلائی نیست. مثل این‌که عقلائی نیست که به مغازه­دار بگویید چرا چاقو فروختی؟! یا سراغ کارخانه را بگیرید که چرا چاقو ساختی که شخصی با آن آدم کشت؟!

شاگرد: شاید در یک پله دیگری هم بتوان برای استنادش بحث کرد که علم هنوز به جایی نرسیده که بتواند این احتمال را تأیید بکند. و الا اگر علم به جایی برسد که بگوید این چیزی که شما می‌سازید ممکن است این کار را بکند –ولو شخصش احتمال را نمی‌داده- باز بحث استناد مطرح می‌شود.

استاد: فعلاً من به مقصود خودم رسیده‌ام. اما این‌که شما بگویید مستند می‌شود یا نمی‌شود من تنها محل نزاع را گفته‌ام. شما دارید آن را حل می‌کنید. می‌گویید چون احتمالش می‌رود به او هم مستند می‌شود. ولی علی ای حال خیلی صاف نیست. مخصوصاً با بحث‌هایی که بعداً می‌شود. این‌طور نیست به صرف احتمالی که می‌رود مستند کنیم. مثلاً کارخانه‌ای که چاقوی تیز به دست مردم می‌دهد، با آن نمی‌توانند سر ببرند؟! ای صاحب کارخانه تو که این همه چاقوی تیز می‌سازی و به داخل جمعیت می‌دهی، احتمال عقلائی نمی‌دهی که با این چاقو سر کسی را ببرند؟!

شاگرد٢: عقلاء بین این دو مثال تفاوتی نمی‌گذارند؟!

استاد: نه، اگر شما روند هوش مصنوعی را بدانید می‌بینید که تفاوتی نیست. وقتی روال پیشرفت هوش مصنوعی را بدانید، می‌بینید همین کارخانه است. ولی من به مقصود اولی خودم رسیدم.

شاگرد: اگر کسی سگس را همراه خودش دارد که اینقدر به او آموزش داده که برای او معلوم است که این سگ اهلی است. ولی یک دفعه پاچه می‌گیرد، استناد این سگ به چه شکل است؟ عرض من این است که باز این استناد دارد. یعنی هنوز احتمال استنادش هست. در آن جایی که به‌صورت عقلائی این احتمال هست که سگی که دست پرورده ی شما است ممکن هست که باز در برود. یعنی درصد خطای آن به قدری کم نشده که احتمالش غیر عقلائی شود.

استاد: من حرفی ندارم و الآن نخواستم به مسأله جواب بدهم. وجهی که شما می‌گویید تقریری برای پیشرفت بحث است. ما باید یک مقدماتی را طی کنیم تا به این فرمایش شما برسیم که ببینیم الآن این استناد صحیح است یا نه. این مثال سگ و … در فقه هست. شما از حیوان مواظبت بکنید یا نکنید. مواردی هست که اگر از حیوان کاری سر بزند مالک آن ضامن نیست. بحمدالله فقه بسیار غنی است. یعنی حتی این محل نزاعی که برای هوش مصنوعی عرض می‌کنم مطالب مبنایی آن تمام در فقه هست. قواعد ضمان با آن ده بندی که در ایتا گذاشته‌ام را بررسی می‌کنیم.

علی ای حال آن چه که مقصود من بود را خدمت شما عرض کردم. یعنی پس ما که بحث فقهی می‌کنیم که مسئولیت‌پذیری هوش مصنوعی از نظر فقهی چیست، نمی‌خواهیم جایی را بگوییم که استناد به برنامه‌نویس و … روشن است. دقیقاً می‌خواهیم جایی را بگوییم که خود ماشین یاد گرفته و خود هوش مصنوعی ترفند کار را یاد گرفته و الآن کسی را کشته است. عمد و خطای آن را باید بعداً بررسی کنیم.

شاگرد٢: بحث یادگیری را فرمودید. به تبع آن بحث کلان داده هم مطرح می‌شود که برای یادگیری در اختیار آن قرار داده می‌شود. آیا عناصر دیگری مانند افرادی که کلان داده را آماده می‌کنند و در اختیار او قرار می‌دهند هم مؤثر است؟

استاد: یکی از بندهایی که در این ده بندی که عرض شد، آمده است، یکی این است که استناد نقطه‌ای نیست. استناد توزیع پذیر است. یعنی شما یک جدولی را از تمام چیزهایی که می‌توانند دخیل باشند، ارائه می‌دهید؛ البته با منطق دو ارزشی و صفر و یکی نمی‌گویید این مستند به این است، بلکه شما به‌صورت منطق فازی و درصدی می‌گویید بیست درصد مستند به این است؛ سی درصد مستند به آن است. پس این هم خودش یک اصل است که مسأله استناد، توزیع پذیر است.

بنابراین محل نزاع در ذهن شریفتان معلوم شده. آن چه را هم که شما می‌فرمایید، کسی که کلان داده  (Big Data) را تهیه می‌کند، هر چه روال بیشتر می‌شود بخش عظیمی از‌ آن را بعداً خود هوش مصنوعی تولید می‌کند. این‌که می‌گویند به تکینگی هم می‌رسد یا نه…؛ به‌خاطر همین است که بعد می‌گویند کنترل آن از دست بشر در می‌رود و دیگر هوش مصنوعی نیست و ابَر هوش است؛ (super Artificial Intelligence).

 

شاگرد: یک وقتی هست که از هوش مصنوعی خطایی سر نمی‌زند ولی چون در جامعه‌ای تطبیق شده که هنوز کاملاً جا نیافتاده، در تطبیق آن در فضای غیر هوش مصنوعی مشکل پیش می‌آید. مثلاً در فضای راهنمایی و رانندگی با وجود چراغ گاهی افسر پلیس هم هست، اما طراحی هوش مصنوعی طوری تنظیم نشده که وقتی افسر هست به حرف او گوش بدهی و تنها به آن چراغ توجه می‌کند، لذا به فرمان افسر گوش نمی‌دهد و با دیگری تصادف می‌کند.

استاد: اگر منظورتان را درست فهمیده‌ام، یعنی گاهی است که خطا مستند به این نیست که خود هوش کاری را کشف کرده باشد و طبق آن اقدامی کرده باشد، بلکه مستند به کمبود و نقص و عدم پیشرفت در الگوریتم هایی که او باید اعمال کند، این هم مانعی ندارد. بعداً ما به همه این‌ها می‌رسیم. یعنی وقتی جدول استناد را دقیقاً بسط می‌دهیم، ذره به ذره چیزهایی که می‌تواند حتی به‌عنوان درصد و زیر یک درصد دخیل باشد در اینکه این خطا رخ داده، همه را بررسی می‌کنیم.

ولی آن چه که مهم است برای این است که بحث راه بیافتد. آقایان هم که فرمودند خدمتشان گفتم: ماشین‌های جیپ که اول بود، استارت نداشت. هنوز استارت نیامده بود. آن‌ها را با هندل روشن می‌کردند. کسی که هندل می‌زد لازم نبود راننده باشد. اصلاً هم رانندگی بلد نبود. ولی خُب می‌توانست هندل بزند. هندل هم برای این بود که موتور روشن شود و راه بیافتد. حالا هم به اندازه هندل زدن که راه بیافتد، وقتی من طلبه می‌بینم می‌توانم هندل بزنم تا راه بیافتد…؛ وقتی هم راه افتاد برعهده جوانان و اساتید است و اگر اشکالی در مباحث هست، از این ناحیه ببینید.