رفتن به محتوای اصلی

ب) ادراکات؛ مادّی یا مجرّد؟

اقسام اطّلاعات

اطلاعاتی که هر شخصی در عمر خودش، از دِماغ و حافظه دارد؛ با اطلاعاتی که از ژن‌هایِ در طولِ تاریخش دارد دو سنخ است: دو حوزه است. خیلی چیزها را ما داریم، برایمان هم واضح است، اما از دِماغ نداریم.

١. اطّلاعات دِماغی

 دِماغ یعنی چه؟ یعنی آن چیزی که الآن در شبکه‌های حافظه و سلّول و نورون‌هایِ عصبیِ مغزی ما باشد[1].نوزاد از وقتی که سلول‌های بنیادین رشد پیدا کردند و بدن پیدا شد[2] و به دنیا آمد و با نور و این ها سروکار پیدا کرد، سلول‌های مغزیش با این عالم تماس دارد.

٢. اطّلاعات ژنتیک

 آن اطلاعاتی که در دی اِن اِی(DNA)[3] آن هاست که ژنتیکشان[4] است خیلی تفاوت دارد با اطلاعاتی که در نورون‌های مغزی آن ها و حافظه­ی آن هاست. نورون‌های عصبی هم DNA دارند در دلِ هر سلّولی ولو غیر نورون حتی ناخنِ بچه، دی ان ای(DNA) وجود دارد.

اطّلاعات  عقل

تمام اطلاعاتی که مغز در محدوده محیطی‌اش است که آن سلول‌های حافظه او هستند، با تمام اطلاعاتی که از تاریخ در دی اِن اِی تاریخ با خودش آورده است، همه این ها را در نظر بگیرید. این ها ذرّات مادی‌اند که نظم خاصّ اطلاعاتی دارند. عقل دارد از همه این ها استفاده می‌کند؛ اما خود این اطلاعات و ذرّاتِ مادی، عقل نیستند؛ پردازشگر نیستند.

پردازش عقل: غیر مادّی

 اساساً پردازش در مغز ،به صورت مادّی سر نمی‌رسد. حافظه مغز، بدون پردازش نمی‌تواند کاری انجام بدهد. تا شما پردازشگر نداشته باشید با حافظه ذخیره شده به عنوان ذخیره اطلاعات، نمی‌توانید هیچ کاری انجام بدهید.

هوش مصنوعی و ادراکات

یعنی اگر شما هزار بار رَم یک کامپیوتر، هاردش و  تمام ذرّاتش را تحلیل کنید تا یک عقلی نباشد که به منزله نرم افزاری باشد که این پای سخت‌افزاری را مدیریت ‌کند، سر نمی‌رسد.

کامپیوترهای زیستی

حتّی کامپیوترهای کوانتومی که بالاتر از زیستی است. کامپیوترهای زیستی[5] می‌خواهند از شبه دی اِن اِی برای حافظه‌اش استفاده کنند.

کامپیوترهای کوانتومی

 کامپیوترهای کوانتومی[6] عجیب‌تر است ؛ از ذرات ماده استفاده می‌کنند برای ذخیره‌سازی اطلاعات.

درست است که بشر، دِماغ دارد؛ اطلاعات ژنتیکی تاریخی هم دارد، اما واقعاً کلّ بشر با یک منفصل، معقول منفصل، مثال منفصل، محسوس منفصل، با این ها دمساز است که می‌رود از آن ها تکامل علمی پیدا می‌کند، بیرونِ خودش را درک می‌کند. نه این‌که او به شکلی طراحی شده باشد که مجبور باشد این طور فکر کند. 


[1] مغز مهم‌ترین و اصلی ترین بخش دستگاه عصبی مرکزی است و در تمامی جانداران از سلول عصبی یا نورون و سلول گلیال یا نوروگلیا تشکیل شده‌است. سلول‌های گلیال انواع گوناگونی داشته و انجام تعدادی از عملکردهای مهم ازجمله پشتیبانی ساختاری، پشتیبانی متابولیک یا سوخت‌وساز یاخته، عایق و همچنین هدایت را به عهده دارند. نورون‌ها، اما، معمولاً مهم‌ترین یاخته‌های در مغز انگاشته می‌شوند. ویژگی یگانه یاختهٔ عصبی در ایجاد و انتقال پیام به دورترین نقاط بدن است

[2] می‌دانیم که همه سلول‌های بدن، دارای ژنوم واحد و کاملا یکسانی هستنند. اما طی فرایند تمایز، هر سلول، به صورت هدفمند، گروه خاصی از ژن‌ها را خاموش و گروه دیگر را روشن می‌کند و با یک برنامه هماهنگ با سایر سلول‌ها، فعالیت‌های خود را به صورت تخصصی انجام می‌دهد، اما گروهی از سلول‌ها که سلول‌های بنیادی نام دارند، نقش و فعالیت ویژه‌ای در بدن ندارند و می‌توانند به هر نوع سلول تخصصی که بدن به آن نیاز دارد، تبدیل شوند.در واقع سلول‌های بنیادی سلول‌های تمایز نیافته‌ای هستند که می‌توانند با توجه به نیاز بدن به سلول‌های تخصصی تبدیل شوند.

به طور خلاصه سلول‌های بنیادی را می‌توان به شکل زیر توصیف کرد:

بدن انسان از انواع متفاوتی از سلول‌ها ساخته شده است. بسیاری از سلول‌ها تخصصی هستند و عملکردهای ویژه‌ای را انجام می‌دهند، مانند گلبول‌های قرمز که اکسیژن را در جریان گردش خون به سراسر بدن منتقل کرده و دی اکسید کربن از سلو‌ل‌ها دریافت می‌کنند. این در حالی است که به عنوان مثال، گلبول‌های قرمز قادر به تقسیم نیستند.

سلول‌های بنیادی همزمان با رشد ارگانیسم سلول‌های جدیدی را برای بدن فراهم می‌کنند و آن‌ها را جایگزین سلول‌های تخصص یافته آسیب دیده یا از دست رفته می‌کنند. سلول‌های بنیادی دو ویژگی منحصر به فرد دارند که آن‌ها قادر می‌سازد تا این کار را انجام دهند:

  این سلول‌ها توانایی تقسیم‌های متوالی را برای تولید سلول‌های جدید دارند.

 همزمان که این سلول‌ها تقسیم می‌شوند، می‌توانند به انواع سلول‌های مختلف و تخصصی تمایز پیدا کنند.

به طور کلی مطالعات سلول‌های بنیادی، زمینه‌ای امید بخش برای درمان بسیاری از بیماری‌هایی است که در حال حاضر هیچ گونه روش درمانی برای آن‌ها وجود ندارد.

سلول‌های بنیادی از دو منبع اصلی حاصل می‌شوند:

    بافت‌های بالغ بدن

    بافت‌ها و سلول‌های جنینی...

سلول‌های بنیادی جنینی (Embryonic Stem Cells)

از همان مراحل اولیه بارداری، پس از این که اسپرم، تخمک را باور کرد، جنین تشکیل می‌شود. حدود ۳ تا ۵ روز پس از بارور شدن تخمک، جنین به صورت بلاستوسیست یا توپی از سلول‌ها تشکیل می‌شود. این سلول‌ها می‌توانند به تمام رده‌های سلولی تبدیل شوند.

Picture63.png

بلاستوسیست‌ها حاوی سلول‌های بنیادی هستند که پس از چند روز در رحم لانه گزینی می‌کنند و در واقع به دیواره رحم متصل می‌شوند. سلول‌های بنیادی جنینی از یک بلاستوسیست که سن آن ۴ تا ۵ روز است، به وجود می‌آیند.

هنگامی که دانشمندان سلول‌های بنیادی را از جنین می‌گیرند، آن‌ها معمولاً جنین‌های اضافی هستند که از لقاح آزمایشگاهی یا مصنوعی (IVF) حاصل می‌شوند.

در کلینیک‌های IVF، پزشکان چندین سلول تخمک را در یک لوله آزمایش بارور می‌کنند تا از زنده ماندن حداقل یکی از آن‌ها اطمینان حاصل کنند. سپس برای شروع بارداری تعداد محدودی از تخمک‌های بارور درون رحم جایگزین می‌شوند.

هنگامی که اسپرم تخمک را بارور می‌کند، این سلول‌ها برای تشکیل یک سلول واحد به نام زیگوت یا تخم با یکدیگر ترکیب می‌شوند. سپس این زیگوت تک سلولی شروع به تقسیم می‌کند و سلول‌های 2، 4، 8، 16 و ... را تشکیل می‌دهد در این محل جنین به وجود می‌آید.

در گام بعدی و قبل از کاشت جنین در رحم، این توده سلولی یا بلاستوسیت در حدود 150 تا 200 سلول دارد. بلاستوسیست از دو بخش تشکیل شده است:

    یک توده سلولی بیرونی که بخشی از جفت می‌شود.

    توده سلولی درونی که بدن انسان را می‌سازد.

توده سلول داخلی جایی است که سلول‌های بنیادی جنینی یافت می‌شوند. دانشمندان سلول‌های این بخش را «سلول‌های بسیار پرتوان» (Totipotent Cells) می‌نامند. اصطلاح پرتوان به این واقعیت اشاره دارد که آنها پتانسیل بالایی در تبدیل شدن به انواع سلول‌های بدن دارند.

Picture64.png

با تحریک مناسب، این سلول‌ها می‌توانند به سلول‌های خونی، سلول‌های پوستی و سایر سلول‌های دیگر که بدن نیاز دارند، تبدیل شوند. در اوایل بارداری، مرحله بلاستوسیست حدود 5 روز قبل از کاشت جنین در رحم ادامه می‌یابد. در این مرحله سلول‌های بنیادی شروع به تمایز می‌کنند. سلول‌های بنیادی جنین می‌توانند نسبت به سلول‌های بنیادی بالغ به سلول‌های بیشتری متمایز شوند.

به طور خلاصه عملکرد سلول‌های بنیادی جنین را می‌توان به صورت زیر بیان کرد:

    سلول‌های جنینی بنیادی می‌توانند سلول‌های جدید جنین را برای رشد و تکامل به یک نوزاد کامل در خود ذخیره کنند.

    این گروه از سلول‌ها به عنوان سلول‌های پرتوان شناخته می‌شوند که می‌توانند به هر نوع از سلول‌های یک ارگانیسم تبدیل شوند.(سایت فرادرس،مقاله سلول بنیادی چیست؟)

[3] مولکول DNA ( دی ان ای) یا «دئوکسی‌ریبونوکلئیک اسید» (Deoxyribo Nucleic Acid) نام شیمیایی ترکیبی است که تمام اطلاعات ژنتیکی و ویژگی‌های وراثتی موجودات زنده را در بر دارد. دی ان ای تمام کدها و اطلاعات ژنتیکی جانوران، گیاهان و حتی ویروس‌ها را حمل می‌کند که این اطلاعات برای رشد، تکامل، بقا، تولید مثل و سایر عملکردهای موجودات، حیاتی است. محل قرارگیری DNA سلول‌های جانوران مختلف، هسته سلول است (سایت فرادرس،مقاله مولکول DNA،از صفر تا صد)

[4] ژنوم دستورالعمل‌های ارثی برای ساخت، پیشبرد و نگهداری یک موجود زنده را داراست. کلمهٔ ژنوم از دو کلمهٔ ژن (gen) و پسوند (ome-) ساخته شده‌است. بدن انسان به‌طور نسبی از پنجاه تا صد میلیارد سلول تشکیل شده که در هر سلول تمام دستورالعمل‌های کدگذاری‌شدهٔ لازم برای هدایت تمامی فعالیت‌های یاخته و ساخت پروتئین‌های لازم، موجود است. به هر گروه کامل از این دستورالعمل‌های ما ژنوم گفته می‌شود. می‌توان ژنوم انسان را که در DNA ذخیره شده‌است با یک کتابخانه به صورت زیر مقایسه کرد:

کتابخانه شامل ۴۶ کتاب (کروموزوم) است

کتاب‌ها بین ۴۰۰ تا ۳۳۴۰ صفحه (ژن) دارند

هر کتاب دارای بین ۴۸ تا ۲۵۰ میلیون حرف (نوکلئوتید) کوچک است

یک کپی از کتابخانه (تمام ۴۶ کتاب) در تقریباً همهٔ سلول‌های بدن ما قرار دارد(سایت ویکی پدیا)

[5] زیست‌رایانه (به انگلیسی: Biological Computing) دانشی است که در آن از ساختارهای مولکولی موجودات زنده (مانند دی‌ان‌ای و پروتئین) برای اعمال رایانش مانند ذخیره سازی، بازیابی و پردازش استفاده می‌شود. به دلیل امکان استفاده از آن‌ها در انجام محاسبات موازی و حجیم، این فناوری جذابیت زیادی دارد. به یک واحد محاسبه گر زیست رایانه، رایانه ی زیستی گفته می شود.(سایت ویکی پدیا)

وقتی به منشا کلمه کامپیوتر نگاه می‌کنیم، متوجه می‌شویم که لوازم الکترونیکی ضروری نیستند. حتی اگر اکثریت ما با شنیدن این اصطلاح، دسکتاپ یا لپتاپ مدرن را تصور می‌کنیم. کامپیوتر وسیله‌ای است که قادر به مدیریت داده‌ها است. از این دیدگاه، مغز ما یکی از قوی‌ترین کامپیوترهای موجود است. پیشرفت قابل توجهی در جهت ایجاد کامپیوترهای بیولوژیکی به وجود آمده است. زمانی که آن‌ها کاملا توسعه یابند، دنیای ما را تغییر خواهند داد. زیست رایانه، پیشرفتی در حوزه‌ی نانو بیوتکنولوژی است که نقطه‌ی اشتراکی بین علوم نانو و زیست را شامل می‌شود. با وجود این که هر سلول ساختاری مشابه یک رایانه دارد، محققان متوجه شده‌اند که رفتار سلول‌های موجودات زنده با رایانه‌های دیجیتال و پایگاه داده‌هایی که برای آن‌ها تعریف شده‌اند، تفاوت‌های زیادی دارد. کامپیوتر زیستی یا زیست رایانه یک نوع کامپیوتر است که براساس فرآیندها و سیستم‌های زیستی ساخته شده است. این نوع کامپیوترها از اجزای بیولوژیکی مانند: سلول‌ها، پروتئین‌ها و فرآیندهای بیوشیمیایی برای انجام محاسبات استفاده می‌کنند. زیست رایانه‌ها معمولا از توانایی سلول‌ها برای پردازش و انتقال اطلاعات بهره می‌برند. ساختارهای زیستی مانند: DNA، آنزیم‌ها و پروتئین‌ها برای ذخیره داده‌ها و انجام عملیات محاسباتی استفاده می‌شوند. از طریق این مولکول‌ها و فرآیندهای زیستی، زیست رایانه‌ها قادر به انجام محاسبات پیچیده و حل مسائل مختلف می‌باشند.(سایت رهاکو، مقاله کامپیوتر زیستی: رویکردی نوین در ترکیب علوم زیستی و علوم کامپیوتر)

تلاش برای شبیه‌ کردن کامپیوتر‌ها به مغز انسان پدیده‌ی جدیدی نیست. بااین‌حال گروهی از پژوهشگرهای دانشگاه جانز هاپکینز بر این باورند که می‌توان با نورون‌های واقعی به مزایایی در این زمینه رسید، گرچه موانع زیادی بر سر این راه وجود دارند.

به‌گزارش ارزتکنیکا، گروهی از پژوهشگرها دستورالعملی از پیش‌نیازهای ساخت کامپیوترهایی زیستی را تهیه کرده‌اند که با سلول‌های مغز انسان تقویت می‌شوند. به گفته‌ی یکی از پژوهشگرها، «هوش ارگانوئیدی» مزایایی شفافی نسبت به کامپیوترهای فعلی خواهد داشت. توماس هارتونگ، پژوهشگر بخش مهندسی و سلامت محیط دانشگاه جانز هاپکینز و یکی از مؤلفان مقاله‌ی جدید می‌گوید: «همیشه برای ساخت کامپیوترهایی مشابه مغز انسان تلاش کردیم، بااین‌حال حداقل از دیدگاه تئوری مغز انسان بی‌همتا است.»

موجود زنده

ارگانوئیدها بخش‌های کوچکی از بافت هستند که در آزمایشگاه برای شبیه‌سازی اندام‌های کامل پرورش می‌یابند. این اندام‌واره‌های کوچک دارای انواع مشخصی از سلول‌های اندام و برخی ساختارهای داخلی هستند. پژوهشگرها با ارگانوئیدها می‌توانند بدون نیاز به آزمایش انسانی یا جانوری، پژوهش‌های خود را انجام دهند.

هارتونگ و همکاران او در حال کار با ارگانوئیدهای رشدیافته از سلول‌های مغز انسان هستند. هارتونگ از سال ۲۰۱۲ پرورش ارگانوئیدها را از نمونه‌های پوست انسان شروع کرد که در یک وضعیت مشابه با سلول‌های بنیادی تنظیم شده بودند. ارگانوئیدها کوچک و هم‌اندازه با یک نقطه‌ی ایجاد‌شده با خودکار هستند، اما تعداد زیادی نورون (تقریباً ۵۰ هزار) و تعداد متنوعی از ساختارهای دیگر را دارند که امکان یادگیری و به‌خاطر‌سپاری را به آن‌ها می‌دهند.

به گفته‌ی هارتونگ، از این سلول‌ها می‌توان برای ساخت کامپیوترهایی با مزایای مختلف استفاده کرد. برای مثال چنین دستگاه‌هایی می‌توانند انرژی کمتری را نسبت به کامپیوترها و ابرکامپیوترهای رایج مصرف کنند. سرعت یادگیری مغز انسان بیشتر از کامپیوتر است و انرژی کمتری را مصرف می‌کند. برای مثال الگوریتم بازی آلفاگو بر اساس داده‌های ۱۶۰ هزار بازی آماتور Go آموزش دیده بود. زمان قابل توجهی طول می‌کشد تا انسان بتواند این بازی‌ها را اجرا کند با این‌حال انسان هنوز هم عملکرد قابل ستایشی در بازی Go دارد. علاوه بر این مغز انسان در ذخیره‌سازی داده‌ها بسیار خوب عمل می‌کند و بر اساس تخمین‌ها می‌تواند تا ۲٫۵ میلیون گیگابایت داده را ذخیره کند.

کامپیوترهای ارگانوئیدی از نظر تئوری فضای کمتری را مصرف می‌کنند. این کامپیوترها در آینده ساختاری سه بعدی خواهند داشت به این صورت که تراکم سلولی آن‌ها می‌تواند به شکل قابل توجهی افزایش پیدا کند و اتصال‌های بیشتری بین نورون‌ها شکل بگیرد. در نهایت با اینکه کامپیوترهای غیر انسانی از نظر پردازش مقدار زیاد داده‌ها بهتر عمل می‌کنند، باز هم مغز انسان در تصمیم‌گیری منطقی مثل شناسایی سریع یک حیوان عملکرد بهتری دارد.

سوکپال سینگ گیل، استادیار مهندسی الکترونیک و علوم کامپیوتر دانشگاه کویین مری لندن به طور مشابهی پتانسیل این نوع رایانش را ارزیابی می‌کند. او مصرف انرژی را محدودیت بزرگی برای رایانش، هوش مصنوعی و یادگیری ماشین می‌داند. از طرفی سلول‌های مغز انسان چنین وظایفی را با سهولت یکپارچه‌سازی می‌کنند و پیش‌نیازهای انرژی کمتری دارند به‌طوری‌که تنها به یک محلول مغذی کوچک برای عملکرد صحیح نیاز دارند.

پیش از تبدیل شدن رؤیای کامپیوترهای زیستی به واقعیت، راه زیادی در پیش داریم. یکی از مشکلات مهم، اندازه است. ارگانوئیدها باید از ۵۰ هزار سلول به ۱۰ میلیون سلول برسند؛ اما به‌سختی می‌توان این تعداد سلول‌ را در فضایی بزرگ‌تر از نیم میلی‌متر حفظ کرد زیرا اکسیژن و مواد غذایی نمی‌تواند به‌راحتی به مرکز آن‌ها برسد. یکی از راه‌‌حل‌های این مشکل می‌تواند تزریق یا کانال‌بندی مایعات به داخل ارگانوئید باشد.

پژوهشگرها همچنین باید راه‌هایی را برای برقراری ارتباط با ارگانوئیدها به منظور تبادل اطلاعات به روش کامپیوترها پیدا کنند. به همین دلیل بهبود حافظه‌ی آن‌ها امری حیاتی است. ارگانوئیدهای مغز در حال حاضر صرفاً می‌توانند خاطرات کوتاه‌مدت را حفظ کنند. برای مثال می‌توانید آن‌ها را برای بازی پونگ آموزش دهید اما ممکن است روز بعد همه چیز را فراموش کنند. دلیل این مسئله می‌تواند این باشد که ارگانوئیدها فاقد سلول‌های میکروگلیکا هستند. این سلول‌ها نوعی سلول ایمنی هستند که در مغز ظاهر می‌شوند و عمل هرس سیناپسی یا ریشه‌کن کردن سیناپس‌های زائد را انجام می‌دهند و به این ترتیب مغز می‌تواند به عملکرد عادی خود ادامه دهد.

همچنین پرسش‌های اخلاقی درباره‌ی ساخت و پرورش سلول‌های مغز و زنده بودن یا نبودن ارگانوئیدها وجود دارد. آیا ممکن است نوعی آگاهی در آن‌ها به وجود بیاید یا درد را تجربه کنند؟ هارتونگ و تیم او در همکاری خود با متخصصین اخلاق زیستی در تلاش هستند همه‌چیز را به‌گونه‌ای ارزیابی کنند که ضرر اخلاقی نداشته باشد.(سایت زومیت، مقاله آیا آینده متعلق به کامپیوترهای زیستی خواهد بود؟)

[6] رایانهٔ کوانتومی (به انگلیسی: Quantum computer) ماشینی است که از پدیده‌ها و قوانین مکانیک کوانتوم مانند برهم نهی (Superposition) و درهم تنیدگی (Entanglement) برای رایانش استفاده می‌کند. رایانه‌های کوانتومی با رایانه‌های فعلی که با ترانزیستورها کار می‌کنند تفاوت اساسی دارند.(سایت ویکی پدیا)

 ما قبل از اینکه به سراغ نحوه کار کامپیوترهای کوانتومی برویم لازم است نگاهی به کامپیوترهای معمولی و نحوه‌ی کار آن‌ها بیندازیم. همه‌ی ما می‌دانیم که پایه و اساس کار کامپیوترهای امروزی بیت‌های منطقی هستند، یعنی ۰ و ۱ که از کنار هم قرار گرفتن آن‌ها دستورات مختلف رایانه‌ای پدید آمده و پردازنده می‌تواند روی آن‌ها محاسبات مختلفی انجام دهد. بیت‌ها معمولا به کمک میزان ولتاژ در مدارات مختلف نشان داده می‌شوند، به عنوان مثال ولتاژ ۰ نمایان‌گر بیت ۰ و ولتاژ ۵ نمایان‌گر بیت ۱ است (میزان ولتاژ‌ها فرضی بوده و می‌تواند در هر سخت‌افزار متفاوت باشد. ) ۲ بایت مختلف را در نظر بگیرید (هر ۸ بیت ۱ بایت را تشکیل می‌دهد) مثلاً (۱۰۱۰۱۱۰۰) نماینده‌ی عدد ۱۷۲ و (۱۱۱۰۱۱۰۰) نماینده‌ی عدد ۲۳۶ می‌باشد. هرکدام از این اعداد با توجه به وضعیت سیستم می‌توانند به شکل متفاوتی تفسیر شوند، مثلا یک کارکتر در نرم‌افزار ورد، یک عدد در ماشین حساب، یک دستورالعمل در پردازنده، بخشی از یک موسیقی یا تصویر و…نکته‌ی مهم در این بخش این است که تنها تغییر یکی از این بیت‌ها کافیست تا عدد تشکیل شده کاملا تغییر کند و در نتیجه مقدار نهایی این مجموعه‌ی بیت نیز متفاوت شود. تغییر هر کدام از این بیت‌ها باعث تغییر سرنوشت کل مجموعه می‌شود.

در کامپیوترهای معمولی هر بیت می‌تواند در لحظه تنها یک مقدار مشخص داشته باشد، یعنی هر بیت در لحظه می‌تواند ۰ باشد و یا ۱ ( تنها یکی از این مقادیر)

وجه تمایز کامپیوترهای کوانتومی و کامپیوترهای معمولی دقیقا در همینجاست، شاید تعجب‌آور باشد، اما باید بدانید کامپیوترهای کوانتومی می‌توانند در هر لحظه انواع حالات را داشته باشند، یعنی بیت‌های آن‌ها هم برابر با ۱ است و هم برابر با ۰ که آن‌را Qubit می‌نامند.(سایت همیار آی تی،مقاله آشنایی با کامپیوتر های کوانتومی و عملکرد حیرت انگیز آن ها)

در این مقاله قصد داریم تا شما را با یکی از شگفت‌انگیزترین ساخته‌های قرن 21، یعنی کامپیوتر کوانتومی آشنا کنیم. امروزه پردازنده‌های مورد استفاده در تلفن‌های همراه به ساختاری ۷ نانومتری رسیده و انتظار می‌رود تا سال 2021 پردازنده‌هایی با لیتوگرافی 5 نانومتری نیز روانه بازار شوند. بدون اغراق این پردازنده‌های کوچک، بیش از چندین برابر پردازنده‌های سطح بالا دسکتاپ که در دهه 2000 میلادی روانه بازار شدند، قوی‌تر هستند. این امر نه تنها برای پردازنده‌های موبایل بلکه برای پردازنده‌های دسکتاپ و سرور که با لیتوگرافی 10 و ۷ نانومتری روانه بازار شدند نیز صادق است. با وجود این پیشرفت شگفت‌انگیز در کارایی و سرعت پردازنده‌های محاسباتی، هنوز مسائل پیچیده‌ای وجود دارند که حل آن‌ها از عهده هیچ‌ یک از سوپر کامپیوترهای موجود بر نمی‌آید. شاید. جدا از وجود مسائل پیچیده، یک مشکل اساسی‌تر در روند توسعه و ساخت تراشه‌ها، کوچک شدن ابعاد ترانزیستورها است. امروزه شرکت‌هایی بزرگی چون AMD و اپل پس از تقلای بسیار به تکنولوژی ساخت تراشه‌های ۷ نانومتری دست پیدا کرده‌اند. در ساختارهای زیر 10 نانومتر، ابعاد ترانزیستورها به ابعاد اتمی نزدیک شده که در این صورت قوانین فیزیک کوانتومی نمود بیشتری پیدا کرده و قواعد بازی را عوض می‌کنند. به طور مثال یک الکترون‌ می‌تواند از یک ترانزیستور به ترانزیستور دیگر تونل‌زنی انجام دهد، که این پدیده برای یک تراشه محاسباتی، امر مطلوبی نیست. در طول تاریخ، عموماً شاهد تبدیل چالش‌ها به فرصت‌ها، توسط فیزیکدانان بوده‌ایم. شما چه راه حلی را برای مشکل فوق پیشنهاد می‌کنید؟ آیا به نظرتان دنیای پردازنده‌ها به انتهای خود نزدیک شده و دیگر پیشرفت قابل ملاحظه‌ای را به خود نمی‌بینند؟ بعید است! علم و تکنولوژی هیچگاه متوقف و یا به عقب برنمی‌گردند. حال که به دنیای فیزیک کوانتومی وارد شده‌ایم، نظرتان چیست که محاسبات را از دنیای کلاسیک به دنیای کوانتوم بیاوریم؟ در ادامه این مطلب همراه ما باشید تا با زبانی ساده و به دور از روابط پیچیده، به بحث محاسبات و کامپیوتر کوانتومی بپردازیم.

محاسبات رایج (Conventional Computing)

آیا تا به حال فکر کرده‌اید اموری ساده‌ای که در طول روز توسط کامپیوتر یا موبایل خود انجام می‌دهید، چگونه توسط پردازنده (CPU) دستگاه شما انجام می‌گیرد؟

کامپیوترهای متعارف می‌توانند اعداد (۰ و ۱) را در حافظه خود ذخیره و روی آن‌ها عملیات ساده ریاضی (پردازش) را انجام دهند. عمل ذخیره‌سازی و پردازش توسط سوییچ‌هایی به نام ترانزیستور انجام می‌گیرد. ترانزیستورها را می‌توانید نسخه‌ای میکروسکوپی از سوییچ‌هایی که روی دیوار جهت خاموش و روشن شدن چراغ‌ها استفاده می‌شود، در نظر بگیرید. در واقع یک ترانزیستور می‌تواند روشن و یا خاموش باشد. درست همان‌طور که نور می‌تواند روشن و یا خاموش شود. از ترانزیستور روشن می‌توانیم برای ذخیره یک (۱) و از خاموش بودن آن برای ذخیره صفر (۰) استفاده کنیم.

رشته‌هایی طولانی از این صفر و یک‌ها می‌توانند برای برای ذخیره هر عدد، نماد و حروفی استفاده شوند. به طور مثال در قواعد کد «اسکی» (ASCII) رشته 1000001 برای نمایش A و رشته 01100001 برای نمایش a به کار می‌رود. (برای تبدیل کد اسکی از این لینک استفاده کنید). هر کدام از این ۰ و ۱ها یک رقم باینری یا بیت نامیده می‌شوند که با رشته‌ای ۸ بیتی می‌توانید ۲۵۵ کاراکتر مختلف مثل A-Z، a-z و 0-9 را ذخیره کنید. یادآور می‌شویم که هر 8 بیت معادل ۱ بایت در نظر گرفته می‌شود.

کامپیوتر‌ها با استفاده از مدارهای (دروازه - گیت) منطقی (Logic Gates) که از تعدادی ترانزیستور ساخته شده‌اند، محاسبات و پردازش را بر روی بیت‌ها انجام می‌دهند. یک گیت منطقی حالت یک بیت را سنجیده و در حافظه‌ای موقت موسوم به رجیستری ذخیره می‌کند. سپس آن‌ها را به حالت جدیدی تبدیل می‌کند. در واقع معادل عمل جمع، تفریق یا ضرب که ما در ذهن خود انجام می‌دهیم. یک الگوریتم در سطح پایین و به صورت فیزیکی، در واقع متشکل از چندین گیت منطقی است که کنار یکدیگر تشکیل یک مدار الکترونیکی را داده‌اند. این مدار محاسبه یا عمل خاصی را انجام می‌دهد.

همان‌طور که در مقدمه مقاله اشاره کردیم، روند کوچک‌سازی ابعاد ترانزیستورها با مشکل مواجه بوده و در لیتوگرافی‌های زیر 10 نانومتر به کندی پیش می‌رود. تا قبل از اختراع ترانزیستور در سال 1947،

سوییچ‌هایی که عمل ترانزیستور را انجام می‌دادند، لامپ‌هایی خلأ بودند که اندازه بزرگی داشتند. امروزه روی یک تراشه پیشرفته به اندازه ناخن دست، میلیاردها ترانزیستور وجود دارد. در دهه 1960، گوردن مور یکی از بنیانگذران شرکت بزرگ «اینتل» (Intel) قانونی تجربی را که به «قانون مور» (Moore's law) معروف است بیان کرد. این قانون پیش‌بینی می‌کند که به طور متوسط هر ۱۸ ماه تعداد ترانزیستورها بر روی یک تراشه با مساحت ثابت، دو برابر می‌شود.

مطابق با پیشبینی قانون مور، از دهه 1960 تا کنون با افزایش تعداد ترازیستورها و در نتیجه افزایش حافظه و سرعت کامپیوترها، برخی از مسائل پیچیده حل شده و از تعداد آن‌ها کم شده است. اما همچنان مسائلی وجود دارند که حتی سوپرکامپیوترهایی که در چند سال اخیر به جهان عرضه شدند، قدرت و توانایی حل آن‌ها را ندارند. جدا از مطلب فوق، در چند سال اخیر فرآیند ساخت ترانزیستورها و لیتوگرافی‌های کمتر از 10 نانومتر با مشکلاتی مواجه بوده و به کندی پیش می‌رود. در واقع به نظر می‌رسد که قانون مور به پایان عمر خود نزدیک است. جدا از راهکارهای کلاسیکی برای رفع مشکلات، می‌توانیم رویکردهای فیزیک کوانتومی را بررسی و علم محاسبات را به دنیای کوانتومی وارد کنیم.

نظریه و فیزیک کوانتوم قوانین حاکم بر دنیای میکروسکوپی، اتم‌ها و ذرات زیر اتمی را تشریح می‌کند. همان‌طور که احتمالاً می‌دانید، در مقیاس‌های اتمی، قوانین فیزیک کلاسیک دیگر کارایی نداشته و نیاز است تا قوانین جدیدی را به کار بریم

در کتاب‌های اپتیک، نور را موجودی دوگانه (موج و ذره) تعریف می‌کنند. در واقع نور بخشی از طیف امواج الکترومغناطیسی است که در عین حال یک ذره (فوتون) هم می‌تواند باشد! شاید بپرسید چگونه یک چیز واحد می‌تواند دو موجودیت داشته باشد؟! بله، در دنیای کوانتوم نظیر چنین مطالبی امری عادی است. به جز بحث دوگانگی موج - ذره نور، یکی دیگر از مثال‌های معروف دنیای فیزیک کوانتوم، گربه شرودینگر است. این گربه که در جعبه‌ای قرار دارد، در هر لحظه هم ‌می‌تواند زنده باشد و هم مرده!

اجازه دهید نگاهی گذار به روند پیشرفت علوم کامپیوتر و محاسبات که باعث شدند امروزه کامپیوترهای کوانتومی به گزینه‌ای جدی برای انجام محاسبات تبدیل شوند، داشته باشیم. آغاز این روند از دو فیزیکدان و محقق شرکت «آی بی اِم» (IBM) به نام‌های «رالف لاندائور» (Rolf Landauer) و «کارلس بِنِت» (Charles H. Bennett.) بود. لاندائور در دهه 1960 مطرح کرد که اطلاعات ماهیتی فیزیکی دارند که با توجه به قوانین فیزیکی می‌توانند تغییر کنند.

یکی از نتایج بسیار مهم از طرح لاندائور این است که کامپیوترها، به واسطه دستکاری و تغییر اطلاعات (بیت‌ها) باعث به هدر رفتن انرژی می‌شوند. به همین دلیل است که قسمت‌های پردازشی در یک کامپیوتر نظیر تراشه مرکزی (CPU) و تراشه گرافیکی (GPU) حتی اگر عملیات سنگینی انجام ندهند، انرژی بسیار زیادی مصرف کرده و گرم می‌شوند.

بِنِت در دهه 1970 در راستای طرح لاندائور، نشان داد که اگر کامپیوترها بتوانند عملیات پردازش را به طور برگشت‌پذیر انجام دهند، می‌توان از اتلاف انرژی به حد زیادی جلوگیری کرد. منظور از پردازش یا محاسبات برگشت‌پذیر به طور خیلی ساده این است که با داشتن خروجی‌ اطلاعات (بیت‌های خروجی) بتوانیم به اطلاعات ورودی (بیت‌های ورودی) پی ببریم. برای تحقق این امر باید دروازه‌های (گیت) منطقی ساخت که به طور برگشت پذیر کار می‌کنند. در فیزیک و محاسبات کلاسیک تنها گیت NOT برگشت‌پذیر است. برای آشنایی با یکی از مهم‌ترین گیت‌های برگشت‌پذیر پیشنهاد می‌کنیم به مقاله «گیت برگشت پذیر توفولی (CCNOT) -- به زبان ساده» رجوع کنید. پس انتظار می‌رود که کامپیوترهای کوانتومی با انجام محاسباتی برگشت‌پذیر، عملیات گسترده و سنگینی را بدون صرف انرژی‌های بسیار زیاد انجام دهند. در مقام مقایسه خوب است بدانید که کامپیوتر کوانتومی D-Wave 2000Q ساخت شرکت کانادایی «دی وِیو» (D-Wave) تنها 25کیلووات انرژی مصرف می‌کند. در حالی که سوپرکامپیوتر Summit که از تراشه‌های شرکت «انویدیا» استفاده می‌کند توان مصرفی 13مگاوات را دارد!

ویژگی‌های اصلی کامپیوترهای معمولی نظیر بیت‌، الگوریتم، گیت‌های منطقی و ... به طور مشابه در کامپیوترهای کوانتومی نیز وجود دارند. اصلی‌ترین جزء یک کامپیوتر کوانتومی، در واقع واحد پردازش اطلاعات، بیت کوانتومی یا کیوبیت است. عملکرد یک کیوبیت شاید کمی مبهم به نظر آید.همان‌طور که می‌دانید یک بیت کلاسیک در هر لحظه تنها می‌تواند یکی از دو مقدار ۰ و ۱ را داشته باشد؛ اما یک کیوبیت در هر لحظه هم می‌تواند ۰ باشد و هم ۱ یا حتی هر چیزی دیگری بین ۰ و ۱ ! در واقع یک کیوبیت در حالت «برهمنهی» (Superposition) از حالت‌های پایه ۰ و ۱ است. برای مشخص شدن حالت کیوبیت باید آن را اندازه‌گیری کرد، در این صورت حالت برهمنهی فرو ریخته و کیوبیت با یک احتمالی در 0 و یا ۱ ظاهر می‌شود.از آنجایی که یک کیوبیت در هر لحظه می‌تواند مقادیر مختلفی را به طور هم‌زمان در خود ذخیره کند (برهمنهی از حالت‌های 0 و ۱)، می‌توان نتیجه گرفت که یک کامپیوتر کوانتومی به هنگام پردازش کیوبیت‌ها، می‌تواند اطلاعات را به صورت هم‌زمان پردازش کند. در واقع بر خلاف کامپیوترهای معمولی که عمل پردازش و محاسبات را به طور «سری» (Serial) انجام می‌دهند، کامپویترهای کوانتومی می‌تواند محاسبات را به صورت «موازی» (Parallel) انجام دهند. این امر سرعت بسیار زیادی را در انجام محاسبات نسبت به یک کامپیوتر معمولی به ارمغان می‌آورد. می‌دانیم که بیت‌های معمولی به وسیله گیت‌های منطقی پردازش می‌شوند. در کامپیوترهای کوانتومی نیز، کیوبیت‌ها توسط گیت‌های کوانتومی پردازش می‌شوند. گیت‌های کوانتومی در واقع عملگر یا اپراتورهای (Quantum Operators) تحول زمانی یکانی هستند که در مدت زمان مشخصی، یک نگاشت یک به یک را انجام داده و در یک حالت کوانتومی را به حالت دیگری تبدیل می‌کنند. از آنجایی که گیت‌های کوانتومی، نگاشتی یک به یک را انجام می‌دهند، عملیات انجام شده توسط آن‌ها برگشت‌پذیر است.(سایت فرادرس، مقاله کامپیوتر کوانتومی به زبان ساده)