زمانی که در سال 1946 اولین رایانه جهان برای مصارف عمومی با نام ENIAC معرفی شد، کسی فکر نمی کرد ابزارهای عظیمی که می توانستند کل فضای یک خانه بزرگ را بپوشانند روزی به این حد از پیشرفت برسند که هفتاد سال بعد، پردازنده ای چندین برابر قدرتمندتر از آنها در جیب بسیاری از مردم کره زمین وجود داشته باشد. حتی شاید گوردون مور هم وقتی در سال 1965 درباره دو برابر شدن اجزای مدارهای مجتمع آن هم هر دو سال یک بار صحبت می کرد تصور درستی از آینده ابزارهای دیجیتال نداشت. اما روند پیشرفت علم باعث شد در فاصله کوتاهی که حتی به طول عمر یک فرد عادی هم نمی رسد، رایانه ها به حدی پیشرفت کنند که این روزها صحبت از رسیدن تکنولوژی های فعلی به مرزهای محدودیت های فیزیکی برسند و دانشمندان ناچار به یافتن راهکارهایی جدید برای افزایش قدرت و سرعت محاسبات رایانه ها شوند. با گسترش علم و اهمیت یافتن محاسبات فوق العاده دقیق، رایانه ها هم می بایست قدرت پردازشی بیشتری داشته باشند تا بتوانند پاسخگوی نیازهای کاربران باشند. البته اینجا هم ابتدا نیاز از بخش های حیاتی تری مانند صنایع نظامی یا هوافضا به وجود می آید و بعد از چند سال راه خود را به سمت کاربران عادی هم باز می کند. در هر صورت، مشکلی که در این بین وجود دارد آن است که واحدهای حافظه و سوئیچ رایانه ها یا همان ترانزیستورها به زودی به ابعاد اتم های منفرد خواهند رسید و آن وقت است که دیگر راهی برای توسعه بیشتر آنها به این صورت وجود ندارد و در چنین شرایطی اگر بخواهیم رایانه ها را کوچکتر کنیم و در عین حال قدرت آنها را افزایش دهیم می بایست راهکاری جدید به دست بیاوریم. روش پیشنهاد شده از سوی دانشمندان در این زمینه رایانش کوانتومی (Quantum Computing) است که البته هنوز با وجود پیشرفت های محسوس نسبت به سال های قبل، علمی کاملا جدید به حساب می آید و حتی برای فعالان در این حوزه از علم نیز ناشناخته باقی مانده است. در دنیای کوانتوم دیگر خبری از قوانین فیزیک کلاسیک نیست و در عنوان سرزمین عجایب کاملا برازنده این شاخه از فیزیک می باشد. اما داستان دقیقا از چه قرار است؟برای درک بهتر تفاوت رایانش کوانتومی باید ابتدا کمی با روش رایانش فعلی آشنا شویم. در حال حاضر کامپیوترها به صورت پایه، از دو روش اصلی برای انجام محاسبات استفاده می کنند؛ آنها اعدادی را در حافظه خود ذخیره کرده و سپس به وسیله عملیات ریاضی ساده ای مانند جمع و تفریق آنها را پردازش می کنند. همچنین پردازش های پیچیده تر به وسیله متصل کردن فرآیندهای ساده تر به شکل یک الگوریتم انجام می شود. ذخیره سازی اعداد و پردازش آنها هر دو توسط سوئیچ هایی به نام ترانزیستور انجام می گیرد که البته در حال حاضر نسخه هایی در ابعاد میکروسکوپی از همان کلیدهایی هستند که برای روشن یا خاموش کردن یک لامپ از آن استفاده می کنیم. ترانزیستورها می توانند دو حالت داشته باشند، روشن و خاموش که در حالت اول عدد 1 و در حالت دوم عدد صفر به آنها نسبت داده می شود. زنجیره هایی از صفر و یک ها برای مشخص کردن اعداد، حروف و یا نشانه هایی به کار گرفته می شوند. در گذشته یک ترانزیستور ابعاد بزرگی داشت اما با پیشرفت چشمگیر الکترونیک در سال های اخیر، یک مدار مجتمع (IC) می تواند تا 2 میلیارد ترانزیستور را در خود جای دهد. مشکل دقیقا از همینجا آغاز می شود. هر چقدر که دستور ورودی به رایانه و یا مساله که باید آن را حل کند پیچیده تر باشد، به تعداد صفر و یک ها و در نتیجه ترانزیستورهای بیشتری نیاز است و از آنجا که رایانه های کلاسیک در آن واحد تنها می توانند یک کار را انجام دهند، هر چه مساله پیچیده تر باشد، قدم های بیشتری برای حل آن مورد نیاز است. افزایش تعداد ترانزیستورها در کنار نیاز به کاهش فضای اشغال شده توسط آنها به تدریج مشکلاتی را نظیر گرمایش بیش از اندازه به وجود می آورد که پس از رسیدن ابعاد ترانزیستورها به اندازه اتم های منفرد، توان پیشرفت آنها را متوقف می کند. اما در دنیای کوانتوم داستان به گونه دیگری روایت می شود. یکی از بنیادی ترین اصول در کوانتوم، مبحث دوگانگی موج - ذره است. در مکانیک کوانتومی فوتون ها (که اجزای تشکیل دهنده نور هستند) می توانند در آن واحد هم به صورت ذره رفتار کنند و خصوصیات ذره گونه داشته باشند و هم از خود ویژگی های موجی به نمایش بگذارند. دقیقا مانند اینکه بگوییم یک ماشین در هر لحظه هم به صورت ماشین و هم به صورت دوچرخه ظاهر می شود. چنین تصویری با دنیای که ما درک می کنیم کاملا در تضاد است، اما در دنیای فیزیک کوانتومی منطقی و به راحتی قابل محاسبه می باشد. چنین ویژگی منحصر به فردی است که باعث می شود رایانش کوانتومی بتواند مرزهایی را که علم الکترونیک با آنها به مشکل برخورد کرده پشت سر بگذارد و دروازه های جدیدی را برای دانشمندان باز کند. همان طور که در رایانش فعلی از اصطلاح بیت استفاده می کنیم، در رایانش کوانتومی هم اصطلاحی با عنوان Qubit یا Quantum Bit وجود دارد. اگر هر بیت می تواند در دو حالت صفر یا یک وجود داشته باشد، کیوبیت ها می توانند در هر لحظه صفر، یک، هر دوی آنها یا هر عددی بین آنها باشند! به علاوه چنین قابلیتی، رایانه های کوانتومی می توانند همه این داده های گوناگون را هم در یک زمان پردازش کنند چون دیگر خبری از تنها دو حالت صفر و یک نیست. در واقع در رایانش کوانتومی به جای پردازش به صورت سری با پردازش موازی روبرو هستیم و در زمانی که کاربر به اندازه گیری مقدار می پردازد (دستوری برای مشخص شدن مقدار یک پارامتر صادر می کند) تنها یکی از حالت های ممکن که احتمال بیشتری از سایرین دارد به نمایش در می آید. چنین کاری باعث می شود سرعت پردازش مسائل در رایانه های کوانتومی چندین میلیون برابر رایانه های کلاسیک باشد. کیوبیت ها می توانند در اتم ها، یون ها و یا حتی موجودات کوچک تری مانند الکترون ها و فوتون ها ذخیره شوند و با قرار گرفتن در حالت های مشخص، داده ها را ذخیره سازی نمایند. برای تغییر حالت اتم ها و در نتیجه پردازش اطلاعات نیز از روش های گوناگونی مانند استفاده از پرتوهای لیزر، میدان های مغناطیسی و امواج رادویی استفاده می شود. در حال حاضر بزرگترین چالشی که غول هایی مانند ناسا و گوگل برای ساخت رایانه های کوانتومی با آن مواجه هستند همین نحوه کنترل و هدایت کیوبیت ها به گونه است که بتوان اطلاعات را به وسیله آنها منتقل کرده و سپس به پردازش آنها پرداخت. همچنین می بایست این نکته را هم در نظر گرفت که با توجه به طبیعت مکانیک کوانتومی، در صورتی که ذرات با جداره هایی که آنها را در بر می گیرند برخورد داشته باشند تمام اطلاعات ذخیره شده بر روی آنها از بین خواهد رفت و به همین دلیل است که دمای کاری مدل های آزمایشی ساخته شده نزدیک به صفر مطلق (منفی 273 درجه سلسیوس) است. همکاری مشترک گوگل و ناسا در پروژه های D-Wave در حال حاضر نزدیک ترین تلاش انجام شده از سوی دانشمندان برای دستیابی به رایانه های کوانتومی است. D-Wave One و D-Wave Two دو محصولی هستند که نشان می دهند این تلاش ها در جهت مثبتی در حال پیشرفت است؛ اما هنوز راه بسیار زیادی تا رسیدن به رایانه های تجاری باقی مانده. هر چند مطمئنا اولین رایانه های کوانتومی مانند پدربزرگ های کلاسیک خود ابعادی در حد یک منزل مسکونی خواهند داشت، اما سرعت پیشرفت علم ثابت کرده آینده رایانش کوانتومی بسیار نزدیک تر از چیزی است که به نظر می رسد. بدون شک Quantum Computing انقلابی در همه علوم به وجود خواهد آورد و از همین حالا می بایست منتظر کشف های جدید و تغییرات گسترده در درک ما از جهان پیرامونمان باشیم.
چت با نویسنده