امکان یا عدم امکان استناد ضمان به هوش مصنوعی و محوریت استناد در ضمان
فرمودند بحث فقهیای باشد راجع به مسئولت پذیری در هوش مصنوعی که امروزه پیش آمده و محل ابتلاء است. صورت ساده مسأله این است: ماشینی هست که خودران است، یعنی راننده ندارد و با هوش مصنوعی اداره میشود. [اگر] کسی را کشت، چه کسی باید خسارت بدهد؟ اتومبیلی که رانندگی آن با هوش مصنوعی اداره میشود، [اگر] کسی را زد و کشت، از نظر فقهی چه کسی باید دیه بدهد؟ این اصل صورت مسأله است.
من مقدماتی را عرض میکنم. متنی را هم در ایتا[1] گذاشتند. سعی کردم آن متن ذهن شریف شما را آماده کند تا اگر خواستید بهصورت منظم و کد نویسی، الگوریتم آن را در بیاورید راحتتر باشد. فعلاً بنا نداشتم. برای زمینهسازی بود که عرض کردم.
تقریباً از ضروریات فقه است که ضمان در فقه منوط به قصد نیست. کسی میخواهد ضامن چیزی شود –بهمعنای وسیعش- محوریتش بر استناد است. در تلفِ یک چیزی –مال، نفس، عضو و…- چه زمانی ضامن است؟ وقتی مستند به او باشد. متلِف کسی است که تلف تالف مستند به او است. این استناد خیلی مهم است. کسی خواب بوده؛ در خواب که چیزی نمیفهمد؛ در خواب پایش را دراز کرده و به لیوانی که مال کسی بوده برخورد کرده که افتاده و شکسته، بگوییم خُب چه تکلیفی دارد؟! خواب بوده! درست است؛ یعنی کسی گناه نکرده است. اما جزء واضحات فقه است که ولو خواب بوده چون شکستن لیوان به او مستند است، ضامن است. یک مالی از بین رفته و تلف شده، چون تلف آن به این آقا مستند است ولو خواب بوده، ضمان ثابت است. پس محوریت ثبوت ضمان بر استناد تلف به آن متلف است. نه به اینکه قاصد باشد یا هوشیار و آگاه باشد. این خیلی مهم است و بعدها هم مرتب با آن کار داریم. محوریت با استناد است. البته بعداً قصد به کار میآید. ما با قصد هم حساب داریم؛ عمد و شبه عمد و … را داریم. اما غیر از اصل مسأله ضمان است. اصل ضمان بر استناد است.
خُب وقتی استناد محور شد، ما باید روشی را پیش بگیریم که این استناد برای ما روشن و واضح شود. بفهمیم که [تلف] مستند به چیست. مثلاً اگر یک اتومبیلی تصادف کرده، ماموری که میآید تا بفهمد علت تصادف چه بوده، اول سراغ این میرود که ببیند چراغش روشن بوده یا نبوده؟! چراغش سالم است یا چراغش سوخته بود؟! چرا نمیرود؟ بهخاطر اینکه راه عقلائی آن این نیست. همین الگوریتمی است که الآن گفتم؛ اول میبیند تصادف در روز بوده یا شب. اگر روز بوده که سفیهانه است او سراغ این برود که ببیند چراغش سالم بوده یا نبوده. برای پیجویی مستند و اینکه ببینیم رمز وقوع یک حادثه چیست، باید مراحل عقلائی طی شود. اول بگوییم چه زمانی تصادف شده؛ اگر گفتیم شب بوده، سراغ این میرویم که ببینیم چراغش سالم بوده یا نبوده و مستند به خرابی چراغ هست یا نیست. اما اگر گفتند روز بوده باید سراغ چیزهای دیگری برویم. این مسأله استناد و روندی که در استناد طی میشود خیلی مهم است.
در ما نحن فیه، به اصطلاح طلبگی خودمان، باید تحریر محل نزاع را بهصورت دقیق انجام بدهیم. چرا؟ بهخاطر اینکه در مسأله استناد و نوشتن کدهای کامپیوتری و برنامههای هوش مصنوعی، آن چه که بزنگاه بحث ما است، این امر رایج نیست. یعنی ما که از هوش مصنوعی بحث میکنیم که مسئولیتپذیری در آن به چه صورت است، مصبّ استناد در هوش مصنوعی بسیار دقیق است. باید مصبّ آن را تشخیص بدهیم و الا همینطور بصورت کلی نیست.
مثالهایی که در ذهنم هست را عرض میکنم؛ مثلاً در خانهای کسی بوده که گاهی حواسش به هم میریخته و حالت روانی درستی نداشته، یک دفعه در خانه حالش به هم ریخته و چاقویی برداشته و کسی از اعضاء خانواده یا نفس محترم دیگری را کشته. الآن شما میخواهید مقصر را تعیین کنید و میخواهید ببینید کشته شدن این شخص توسط آقایی که گاهی حالش به هم میریخته و به آشپزخانه رفته و چاقو آورده و او را کشته؛ میخواهید ببینید این قتل مستند به چه کسی است. چه کسی مقصر است. او که متوجه نبوده. خُب مباشر هم او بوده.
شاگرد: عاقله چه کسی است؟
استاد: نمیخواهم بگویم طفل یا مجنون بوده تا سراغ عاقله برویم. در آن حال گاهی مشکوک میشود که آیا جنون بوده یا نبوده. در این مثالها خیلی به این امور که عاقله کی بوده و ... کاری نداریم، با مقصودهای اصلی کار داریم. از این عبور میکنیم تا به مقصود اصلی مثال برسیم.
فعلاً عرض من این است: در اینجا شما دنبال این بلند میشوید تا ببینید مقصر چه کسی است. ذهنتان سراغ این میرود و میگویید در این خانه میدانستند که حال او خراب میشود لذا چاقو را در کمدی گذاشتهاند که کلید داشته. اما میبینید میگویند فلانی آمده قفل کمد را باز کرده و از این طریق چاقو به دست او آمده است. ببینید در اینجا ذهنتان جلو میرود. میگویید چه کسی تقصیر کار است؟ مثلاً کسی که رفته این قفل را باز کرده و چاقویی که پنهان کرده بودند و نمیخواستند به دست او بیافتد در دست او افتاده. ذهن شما در پیجویی روند کار که مقصر را پیدا کند، خیلی از این اباء نمیکند. جایی سراغ عاقله میرویم که خود مباشر ضامن است و عاقله پرداخت میکند. اما اگر قبل از اینکه او را مقصر بدانیم، اگر مقصری داشته باشیم که از او اقوی است و این شخص نسبت به او کالآلة بوده و مباشر نسبت به او ضعیفتر باشد، سراغ او میرویم. این بحثهای فقهی جای خودش باشد. فقط میخواهم مثال بگویم. پس ذهن شما تا اینجا مشکلی نداشت.
حالا عرض من این است: [آیا] به ذهن احدی از عالم و جاهل و عرف عام و خاص میآید که بپرسند با چه چیزی او را کشت؟! با یک چاقو کشت. بعد برویم ببینیم این چاقو را از کدام مغازه خریدهاند! ذهن کسی سراغ این میرود؟! خلاصه او فروخته است. بعد ببینیم این چاقو را کدام کارخانه تولید کرده تا دیه را از او بگیریم. این به ذهن کسی میآید یا نمیآید؟! نمیآید. اینکه چرا نمیآید را بعداً عرض میکنم. حالا بعداً با این مثال کار داریم.
در این برنامههایی که نوشته میشود، زبانهای برنامهنویسیای هست که برنامهنویس طبق یک کدی که مینویسد، یک محصولی را ارائه میدهد. شما میتوانید تمام مراحل تقصیر، قصد، خطا را برای این برنامهنویس بیاورید. یعنی یک برنامهنویس میتواند یک برنامهای بنویسد که قصد او از برنامه این باشد که زید را بکشد. این خیلی امر روشنی است. ما که در اینجا مشکلی نداریم. ولو یک ماشینی باشد که هوش مصنوعی هم اجراء میکند، اگر این برنامهنویس کار این ربات را طوری تنظیم کرده که به وسیله آن برنامه و مستند به او و با قصد قتل او را کشته است. از نظر فقهی که در اینجا بحثی نداریم. روشن است. قتل به ربات مستند نیست. قتل به برنامهنویس مستند است و باید هم قصاص شود. چون قاتل عمد حساب میشود. حالا اگر قاصد فعل بود و قاصد نتیجه نبود، شبه عمد میشود. اگر نه قاصد فعل و نه نتیجه بود، برنامهنویس قاتل میشود اما قاتل به خطای محض. چون نه قاصد فعل بوده و نه قاصد نتیجه. در اینجا انواع و اقسامی هست.
آیا بحث ما در مسئولیتپذیری هوش مصنوعی اینها است؟ نه. استناد اینها روشن است. بگوییم خُب هوش مصنوعی دارد اجراء میکند! خُب استنادی که سر آن بحث میکنیم جا دارد. صرف اینکه یک هوش مصنوعی در یک وسیلهای فعال باشد، این بحث ما نیست. بحثهای روشنی دارد؛ مستندات روشنی دارد؛ جواب های فقهی آن هم روشن است. پس کجا است که مبهم است و دقیق است که ما پیرامون آن بحث میکنیم؟ مسأله خاص هوش مصنوعی است. یعنی همان مسألهای است که امروزه میگوییم یادگیری ماشین.
در همان مثال که گفتم کسی سراغ مغازه یا کارخانه چاقو نمیرود، شبیه آن مثال در اینجا موجود است. در مسئولیت هوش مصنوعی از آن جهتی که به خود ماشین، بدون اینکه برنامهنویس خبر داشته باشد، بدون اینکه قصد کرده باشد، خود ماشین در روند یادگیری خودش چیزهایی را یاد میگیرد که حتی خود برنامهنویس از آنها خبر نداشته است و باورش نمیشده که این هوشی که برای این ربات به کار بردهام این کار را میکند.
[1] مربوط به جلسه پنجشنبه (فقه هوش مصنوعی) (آمادگی پیش از جلسه):
۱- مثلث [متلف] [تالف] [تلافی]، تقسیمات گسترده دارد که در الگوریتم ضمان دخالت دارند.
۲- [متلف] آن است که تلف {استناد} به او دارد.
۳- [متلف] میتواند (مالک) یا (مملوک) و یا (نه مالک و نه مملوک) باشد.
۴- [متلف] میتواند با ملاحظه قصد او نسبت به (کار) و (نتیجه)، به سه قسم {عمد} و {شبه عمد} و {خطأ محض} تقسیم شود.
۵- [تالف] میتواند (نفس) یا (عضو) یا (عرض) یا (مال) باشد.
۶- [تلافی] میتواند (جریمه مالی) یا (کیفری) یا (رقبة) یا (هدر) باشد.
۷- {استناد} میتواند از نوع (مباشرت) یا (تسبیب) باشد که {اقوائیت} ملاحظه میشود.
۸- {استناد} میتواند مشتمل بر مؤلفههای متعدد باشد که به تساوی یا تفاضل بر آنها {توزیع} میشود.
۹- {استناد} میتواند طولي باشد که {قرار ضمان} بر یکی از حلقههای زنجیره است.
۱۰- {قرار ضمان} میتواند بر نزدیکترین محل [تلافی] باشد، هر چند تعاقب ایدی یا اسباب طولیة، سبب رجوع شود.