رفتن به محتوای اصلی

تحقق احساس در ربات و مسأله شکاف تبیین

در تحلیلی که در اینجا داریم، می‌خواهیم بگوییم نماد در درک و علم حصولی یک جور است و در احساس که نمادین نیست، جور دیگری است. بحث احساس، خیلی به بحث طلبگی ما مربوط نیست. حالا یک رباتی درست کنیم که وقتی دستش را در آب می‌گذارد، غیر از این‌که طبق ضوابط هوش مصنوعی، می‌تواند بفهمد این آب داغ هست یا نیست، و چند درجه گرم است، آیا می‌توانیم رباتی هم درست کنیم که وقتی دستش را در آب گذاشت و درجه آب را هم گفت، احساس گرمی‌ای که ما داریم را داشته باشد؟ گرمی، حرکت جنبشی مولکول‌ها است که وقتی این حرکت زیاد می‌شود، گرما بالا می‌رود؛ ترمودینامیک. شما می‌توانید از این علم استفاده کنید و به وسیله سنسورهای دست ربات، بگوید درجه حرارت این آب با این خصوصیاتش چقدر است؛ در این مشکلی نیست. اما آیا می‌توانید کاری کنید که ربات احساس گرمی‌ای که بچه دارد -بچه‌ای که هنوز چیزی سرش نمی‌شود، ولی احساس گرمی می‌کند- را داشته باشد؟! این احساس در ربات می‌آید یا نه؟ بر سر این‌ها خیلی بحث کرده‌اند. شکاف تبیین هم همین است. حالا اینکه بشود یا نشود، خیلی مربوط به بحث حوزوی ما نیست. آن‌ها را باید خودشان بحث کنند. مثل هوش مصنوعی قوی که می‌خواستند کاملاً شئونات ذهن انسان را به ربات بدهند و می‌گفتند می‌شود یا نمی‌شود، از این بحث‌ها.

من برای آگاهی، بسته‌بندی زمان را عرض کردم، آن هم برای توجیهی بود که فقط بحثش کنیم، و الا از نظر اغراض مباحث فقهی و اغراض حوزوی -حتی کلامی- برای ما خیلی مهم نیست که بشود یا نشود.

شاگرد۱: چرا می‌فرمایید مهم نیست؟ چه جهتی مد نظرتان است؟

استاد: به‌خاطر این‌که داشتن صرف احساس گرمی، در اغراض حوزوی ما و در مباحث کلامی ما دخالت نمی‌کند؛ بله، در فلسفه ذهن کار دارد. هر کسی می‌خواهد فلسفه ذهن کار کند، سراغش می‌رود. اما برای اغراض کلامی و اغراض فقهی‌ای که ما داریم، تفاوتی ندارد. اگر شما توضیحی بدهید که نیاز است، من خوشحال می‌شوم.

شاگرد۱: اگر احساس داشته باشد، ممکن است در مجازات تأثیر داشته باشد. اگر استناد به خودش درست شود و حالا می‌خواهیم مجازات کنیم؛ یک جا هست که می‌گوییم این سیستم را از کار بیندازیم، اما اگر احساسات باشد، می‌توانیم تنبیهش کنیم و چقدر تنبیهش کنیم.

استاد: مانعی ندارد، اما برای تنبیه، طبق برنامه‌نویسی‌های بدون احساس بشری هم به مقصودمان می‌رسیم. «من» پایه‌محورِ خوددار را عرض کردم؛ یعنی با همان برنامه، لازم نیست احساس «من» مثل یک روح مجرد داشته باشد. یعنی اگر او «من» می‌گوید یک مدیریتی برای محدوده خاصی از حافظه کامپیوتر است که «من» پایه‌محور را مدیریت می‌کند. الآن ما بیشتر نیاز نداریم که این «من» پایه‌محور، آن احساسی که ما از من به‌عنوان یک روح داریم -که به دار دنیا هبوط کرده- را داشته باشد. «من» خوددار، باز مانعی ندارد. یعنی ما برای آن، چیزهایی را برنامه‌نویسی می‌کنیم که خودش را، تن این ربات را و همه چیز را حفظ کند. حتماً محتاج این نیست که بگوییم او ادراک «أنا» مجرد را داشته باشد تا خوددار باشد؛ اگر بشود که من حرفی ندارم.