|  
صفحه اصلی > فهرست مقالات > آشنایی با کامپیوتر کوانتومی
مقالات وب، شبکه
 

آشنایی با کامپیوتر کوانتومی

آشنایی با کامپیوتر کوانتومی و پردازش کوانتومی رایانهٔ کوانتومی ماشینی است که از پدیده‌ها و قوانین مکانیک کوانتوم مانند برهم نهی (Superposition) و درهم تنیدگی (Entanglement) برای انجام محاسباتش بهره می گیرد. کامپیوترهای کوانتومی با کامپیوترهای فعلی که باترانزیستورها کار می کنند تفاوت اساسی دارند. ایده اصلی که در پس کامپیوترهای کوانتومی نهفته است این است که می توان از خواص و قوانین فیزیک کوانتوم برای ذخیره‌سازی و انجام عملیات روی اطلاعات استفاده کرد. یک مدل تئوریک و انتزاعی از این ماشین ها، ماشین تورینگ کوانتومی (Quantum Turing Machine) است که کامپیوتر کوانتومی جهانی (Universal Quantum Computer) نیز نامیده می شود.

اگر چه محاسبات کوانتومی تازه در ابتدای راه قرار دارد، اما آزمایش هایی انجام شده که در طی آنها عملیات محاسبات کوانتومی روی تعداد بسیار کمی از کیوبیت ‌ها (qubit) اجرا شده است. تحقیقات نظری و عملی در این زمینه ادامه دارد و بسیاری از موسسات دولتی و نظامی از تحقیقات در زمینه کامپیوترهای کوانتومی چه برای اهداف غیرنظامی و چه برای اهداف امنیتی (مثل تجزیه و تحلیل رمز، Cryptanalysis) حمایت می کنند. اگر کامپیوترهای کوانتومی در مقیاس بزرگ ساخته شوند، می توانند مسائل خاصی را با سرعت خیلی زیاد حل کنند (برای مثال الگوریتم شُور، Shor's Algorithm). البته باید توجه داشت که توابعی که توسط کامپیوترهای کلاسیک محاسبه پذیر (Computable) نیستند، توسط کامپیوترهای کوانتومی نیز محاسبه پذیر نخواهند بود. این کامپیوترها نظریه Church–Turing را رد نمی کنند. کامپیوترهای کوانتومی برای ما تنها سرعت بیشتر را به ارمغان می آورند.

نقاط کوانتومی
تعریف ساده نقطه کوانتومی این است که یک ذره مادی بسیار کوچک، که افزایش یا کاهش یک الکترون خواص آن را به نحو ارزشمندی تغییر دهد. البته اتم‌ها نقطه کوانتومی محسوب می‌شوند، ولی توده‌های چندمولکولی نیز چنین‌اند. در زیست‌شیمی، نقاط کوانتومی گروه‌های اکسیداسیون - احیا خوانده می‌شوند. در نانو تکنولوژی به آنها بیت ‌های کوانتومی یا کیو بیت (qubit) گفته می‌شود. اندازه آنها در حد چند نانومتر است و از انواع مواد همچون سلنید کادCadmium selenideمیوم (Cadmium selenide) - که رنگهای مختلفی را تولید می‌کند- (تصویر) ساخته می‌شوند. کاربردهای بالقوه آنها در مخابرات و اپتیک است. نانو ذرات فلورسنت - که تا پیش از تابش ماوراءبنفش نامرئی هستند- ساختار نانو بلوری قادر به تغییر رنگ، از دیگر تعاریف آنهاست. نقاط کوانتومی از دیگر مواد فلورسنت انعطاف بیشتری دارد. لذا استفاده از آن‌ها در ساخت کامپیوترهای نانو مقیاس استفاده کننده از نور برای پردازش اطلاعات مناسب است.

اصول کامپیوترهای کوانتومی
رویای محاسبات ماشینی یا ماشینی که بتواند مسائل را در اشکال گوناگون حل کند کمتر از دو قرن است که زندگی بشر را به طور جدی در بر گرفته است. اگر از ابزارهایی نظیر چرتکه و برخی تلاشهای پراکنده دیگر در این زمینه بگذریم، شاید بهترین شروع را بتوان به تلاشهای «چارلز بابیج» و « بلز پاسکال» با ماشین محاسبه مکانیکی شان نسبت داد. با گذشت زمان و تا ابتدای قرن بیستم تلاشهای زیادی جهت بهبود ماشین حساب مکانیکی صورت گرفت که همه آنها بر پایه ریاضیات دهدهی (decimal) بود، یعنی این ماشین‌ها محاسبات را همان طور که ما روی کاغذ انجام می دهیم انجام می دادند. اما تحول بزرگ در محاسبات ماشینی در ابتدای قرن بیستم شروع شد. این زمانی است که الگوریتم و مفهوم فرایندهای الگوریتمی (Algorithmic Processes) به سرعت در ریاضیات و به تدریج در سایر علوم رشد کرد. ریاضیدانان شروع به معرفی سیستم‌های جدیدی برای پیاده سازی الگوریتمی کلی کردند که در نتیجه آن، سیستم‌های انتزاعی محاسباتی بوجود آمدند. در این میان سهم برخی بیشتر از سایرین بود. آنچه امروزه آنرا دانش کامپیوتر و یا الکترونیک دیجیتال می نامیم مرهون و مدیون کار ریاضیدان برجسته انگلیسی به نام «آلن تورینگ» (Alan Turing) است. وی مدلی ریاضی را ابداع کرد که آنرا ماشین تورینگ می نامیم و اساس تکنولوژی دیجیتال در تمام سطوح آن است. وی با پیشنهاد استفاده از سیستم دودویی برای محاسبات به جای سیستم عدد نویسی دهدهی که تا آن زمان در ماشین‌های مکانیکی مرسوم بود، انقلابی عظیم را در این زمینه بوجود آورد. پس از نظریه طلایی تورینگ، دیری نپایید که «جان فون نویمان» یکی دیگر از نظریه پردازان بزرگ قرن بیستم موفق شد ماشین محاسبه گری را بر پایه طرح تورینگ و با استفاده از قطعات و مدارات الکترونیکی ابتدایی بسازد. به این ترتیب دانش کامپیوتر بتدریج از ریاضیات جدا شد و امروزه خود زمینه ای مستقل و در تعامل با سایر علوم به شمار می رود. گیتهای پیشرفته، مدارات ابر مجتمع، منابع ذخیره و بازیابی بسیار حجیم و کوچک، افزایش تعداد عمل در واحد زمان و غیره از مهم‌ترین این پیشرفت ها در بخش سخت افزاری محسوب می شوند.
در سال 1965 گوردون مور (Gordon Moore) اظهار کرد که توان کامپیوترها هر دو سال دو برابر خواهد شد. در تمام این سالها، تلاش عمده در جهت افزایش قدرت و سرعت عملیاتی در کنار کوچک سازی زیر ساخت ها و اجزای بنیادی بوده است. نظریه مور در دهه‌های 60 و 70 میلادی تقریبا درست بود. اما از ابتدای دهه 80 میلادی و با سرعت گرفتن این پیشرفتها، شبهات و پرسش هایی در محافل علمی مطرح شد که این کوچک سازی‌ها تا کجا می توانند ادامه پیدا کنند؟ کوچک کردن ترازیستورها و مجتمع کردن آنها در فضای کمتر نمی تواند تا ابد ادامه داشته باشد زیرا در حدود ابعاد نانو متری اثرات کوانتومی از قبیل تونل زنی الکترونی بروز می کنند. گرچه همیشه تکنولوژی چندین گام از نظریه عقب است، بسیاری از دانشمندان در زمینه‌های مختلف به فکر رفع این مشکل تا زمان رشد فن آوری به حد مورد نظر افتادند. به این ترتیب بود که برای نخستین بار در سال 1982 «ریچارد فاینمن» استاد بزرگ فیزیک و برنده جایزه نوبل، پیشنهاد کرد که باید محاسبات را از دنیای دیجیتال وارد دنیای جدیدی به نام کوانتوم کرد که بسیار متفاوت از قبلی است و نه تنها مشکلات گذشته و محدودیت‌های موجود را بر طرف می سازد، بلکه افق‌های جدیدی را نیز پیش روی ما قرار می دهد. این پیشنهاد تا اوایل دهه 90 میلادی مورد توجه جدی قرار نگرفت تا سرانجام در سال 1994 «پیتر شور» از آزمایشگاه AT&T در آمریکا ، نخستین گام را برای محقق کردن این آرزو برداشت. بدین ترتیب ارتباط نوینی بین نظریه اطلاعات و مکانیک کوانتومی شروع به شکل گیری کرد که امروز آنرا محاسبات کوانتومی یا محاسبات نانو متری (Nano Computing) می نامیم. در واقع هدف محاسبات کوانتومی یافتن روشهایی برای طراحی مجدد اجزای شناخته شده محاسبات ( مانند گیت‌ها و ترانزیستورها ) است به طوریکه بتوانند تحت اثرات کوانتومی، که در محدوده ابعاد نانو متری و کوچکتر بروز می کنند، کار کنند.

نمونه ای از یک کامپیوتر کوانتومی
نمونه ای از یک کامپیوتر کوانتومی

محاسبات کوانتومی
کامپیوتر تنها بخشی از دنیایی است که ما آنرا دنیای دیجیتالی می نامیم. پردازش ماشینی اطلاعات، در هر شکلی، بر مبنای دیجیتال و محاسبات کلاسیک انجام می شود. اما کمتر از یک دهه است که روش بهتر و قدرتمندتر دیگری برای پردازش اطلاعات پیش رویمان قرار گرفته که بر اساس مکانیک کوانتومی می باشد. این روش جدید با ویژگیهایی همراه است که آنرا از محاسبات کلاسیک بسیار متمایز می سازد. گرچه محاسبات دانشی است که اساس تولد آن در ریاضیات بود، اما کامپیوترها سیستم هایی فیزیکی هستند و فیزیک در آینده این دانش نقش تعیین کننده ای خواهد داشت. البته وجود تفاوت بین این دو به معنای حذف یکی و جایگزینی دیگری نیست. به قول «نیلس بور» گاهی ممکن است خلاف یک حقیقت انکار ناپذیر منجر به حقیقت انکار ناپذیر دیگری شود. بنابراین محاسبات کوانتومی را به عنوان یک زمینه و روش جدید و بسیار کارآمد مطرح می کنیم. وجود چند پدیده مهم که مختص فیزیک کوانتومی است، آنرا از دنیای کلاسیک جدا می سازد. این پدیده‌ ها عبارتند از: بر هم نهی (Superposition)، تداخل (Interference) ، Entanglement، عدم جبرگرایی (Non Determinism)، نا جایگزیدگی (Non Locality) و تکثیر ناپذیری (No Cloning) . برای بررسی اثرات این پدیده‌ها در این روش جدید، لازم است که ابتدا واحد اطلاعات کوانتومی را معرفی کنیم.

هر سیستم محاسباتی دارای یک پایه اطلاعاتی است که نماینده کوچکترین میزان اطلاعات قابل نمایش، چه پردازش شده و چه خام است. در محاسبات کلاسیک این واحد ساختاری را بیت (bit) می نامیم که گزیده واژه «عدد دودویی» است زیرا می تواند تنها یکی از دو رقم مجاز صفر و یک را در خود نگه دارد. به عبارت دیگر هر یک از ارقام یاد شده در محاسبات کلاسیک، کوچکترین میزان اطلاعات قابل نمایش محسوب می شوند. پس سیستم هایی هم که برای این مدل وجود دارند باید بتوانند به نوعی این مفهوم را عرضه کنند. در محاسبات کوانتومی هم چنین پایه ای معرفی می‌شود که آنرا کیوبیت (qubit) یا بیت کوانتومی می نامیم.

بیت و کیوبیت

اما این تعریف کیوبیت نیست و باید آنرا همراه با مفهوم و نمونه‌های واقعی و فیزیکی درک کرد. در ضمن فراموش نمی کنیم که کیوبیت‌ها سیستم هایی فیزیکی هستند، نه مفاهیمی انتزاعی و اگر از ریاضیات هم برای توصیف آنها کمک می گیریم تنها بدلیل ماهیت کوانتومی آنها است. در فیزیک کلاسیک برای نگه داری یک بیت از حالت یک سیستم فیزیکی استفاده می شود. در سیستم‌های کلاسیکی اولیه (کامپیوترهای مکانیکی) از موقعیت مکانی دندانه‌های چند چرخ دنده برای نمایش اطلاعات استفاده می شد. از زمانیکه حساب دودویی برای محاسبات پیشنهاد شد، سیستم‌های دو حالتی انتخاب های ممکن برای محاسبات عملی شدند. به این معنی که تنها کافی بود تا سیستمی دو حالت یا دو پیکربندی مشخص، متمایز و بدون تغییر داشته باشد تا بتوان از آن برای این منظور استفاده کرد. به همین جهت، از بین تمام کاندیداها، سیستم‌های الکتریکی و الکترونیکی برای این کار انتخاب شدند. به این شکل، هر بیت، یک مدار الکتریکی است که یا در آن جریان وجود دارد یا ندارد. هر بیت کوانتومی یا کیوبیت عبارت است از یک سیستم دودویی که می تواند دو حالت مجزا داشته باشد. به عبارت فنی تر، کیوبیت یک سیستم دو بعدی کوانتومی با دو پایه است. البته نمایش پایه‌ها یکتا نیست، به این دلیل که بر خلاف محاسبات کلاسیک در محاسبات کوانتومی از چند سیستم کوانتومی به جای یک سیستم ارجح استفاده می کنیم. اولین کاندید برای نمایش کیوبیت استفاده از مفهوم اسپین است که معمولاً اتم هیدروژن برای آن به کار می رود. در اندازه گیری اسپین یک الکترون، احتمال بدست آمدن دو نتیجه وجود دارد: یا اسپین رو به بالا یا رو به پایین است. بالا یا پائین بودن جهت اسپین در یک اندازه گیری از آنجا ناشی می‌شود که اگر اسپین اندازه گیری شده در جهت محوری باشد که اندازه گیری را در جهت آن انجام داده ایم، آنرا بالا و اگر در خلاف جهت این محور باشد آنرا پائین می نامیم. علاوه بر اسپین از وضع قطبش یک پرتو فوتونی و نیز سطوح انرژی مجزای یک اتم دلخواه نیز می توان به عنوان سیستم کیوبیتی استفاده کرد. شاید بتوان مهم‌ترین تفاوت بیت و کیوبیت را در این دانست که بیت کلاسیک فقط می تواند در یکی از دو حالت ممکن خود قرار داشته باشد در حالیکه بیت کوانتومی می تواند به طور بالقوه در بیش از دو حالت وجود داشته باشد. تفاوت دیگر در اینجاست که هرگاه بخواهیم می توانیم مقدار یک بیت را تعیین کنیم اما اینکار را در مورد یک کیوبیت نمی توان انجام داد. از سوی دیگر اندازه گیری روی سیستم‌های کوانتومی حالت اصلی آنها را تغییر می دهد. کیوبیت در حالت کلی در یک حالت بر هم نهاده از دو پایه ممکن قرار دارد. اما در اثر اندازه گیری به یکی از پایه‌ها برگشت می کند. به این ترتیب هر کیوبیت، پیش از اندازه گیری شدن می تواند اطلاعات زیادی را در خود داشته باشد.

توانایی و قدرت محاسبات کوانتومی
بین کامپیوترهای کلاسیک و کامپیوترهای کوانتومی نسل آینده تفاوت اساسی وجود دارد. یک کامپیوتر کلاسیک بر اساس قوانین فیزیک کلاسیک دستورات از پیش تعیین شده ای را اجرا می‌کند، اما یک کامپیوتر کوانتومی دستگاهی است که یک پدیده ی فیزیکی را بر اساس مکانیک کوانتومی به صورت منحصر به فردی در می آورد تا به صورت اساسی یک حالت جدید از پردازش اطلاعات را تشخیص دهد. در یک کامپیوتر معمولی اطلاعات به صورت یک سری بیت کد گذاری می شوند و این بیت‌ها از طریق گیتهای منطقی بولین که سری هستند برای نتیجه ی نهایی دستکاری می شوند به طور مشابه یک کامپیوتر کوانتومی، کیوبیت‌ها یا بیت‌های کوانتومی را با اجرای یک از گیت‌های کوانتومی دستکاری می کندو هر واحد انتقال بر روی یک تک کیوبیت یا یک جفت کیوبیت عمل می کند. با به کار بردن این کمیت‌های متوالی یک کامپیوتر کوانتومی می تواند یک واحد انتقال پیچیده از طریق مجموعه ای از کیوبیت‌ها در بعضی حالات ابتدایی ایجاد کند. در یک رایانه کوانتومی به جای استفاده از ترانزیستورها و مدارهای رایانه ای معمولی از اتم‌ها و سایر ذرات ریز برای پردازش اطلاعات استفاده می شود. یک اتم می تواند به عنوان یک بیت حافظه در رایانه عمل کند و جابجایی اطلاعات از یک محل به محل دیگر نیز توسط نور امکان می پذیرد. کریس مونرو و همکارانش در دانشگاه میشیگان برای ذخیره اطلاعات با استفاده از حالت مغناطیسی اتم از یک اتم کادمیم به دام افتاده در میدان الکتریکی استفاده کردند. در این روش انرژی توسط یک لیزر به درون اتم پمپاژ شده و اتم وادار به گسیل فوتونی می‌شود که رونوشتی از اطلاعات اتم را در بر دارد و توسط آشکارساز قابل تشخیص است.

ذخیره اطلاعات در رایانه‌ها به صورت سری هایی از بیت‌های با حالت‌های روشن و خاموش صورت می گیرد. در اتم کادمیم در صورتی که میدان‌های مغناطیسی کوچک هسته و الکترون‌های بیرونی در یک جهت قرار بگیرند روشن و در خلاف جهت خاموش محسوب می شوند. "کریس مونرو" گفته است: اتم کادمیم در هریک از این حالات که باشد می تواند هزاران سال در همان حالت بماند.

پیاده سازی
در سال ۲۰۱۱ شرکت کامپیوتری D-Wave Systems اولین کامپیوتر کوانتومی قابل عرضه در بازار را معرفی کرد. این کامپیوتر D-Wave One نام دارد و از یک پردازنده ۱۲۸ کیو بیتی بهره می گیرد. گرچه تعدادی از محققین، در مورد عملکرد این کامپیوتر ابراز شک و تردید کردند.


منبع: http://fa.wikipedia.com
اصلاحات و تصاویر: webkaran.com
 
 
ارسال به دوستافزایش اندازه فونتکاهش اندازه فونت