تنظيم نقطه‌های کوانتومی برای تولید درهم‌تافته‌گی

پژوهش‌گران برای برطرف کردن نقص‌هایی که معمولا ساختارهای نانوی نیمه‌رسانا را از گسیل کردن فوتون‌های درهم‌تافته بازمی‌دارند، تركيبي از میدان الکتریکی و تنش مکانیکی را بر سامانه‌اي از نقطه‌های کوانتومی، اعمال كرده‌‌اند. درهم‌تافته‌گی مکانیک کوانتومی را از مکانیک کلاسیک متمايز مي‌كند و از همين رو، عنصر اصلي در بیش‌تر کاربردهای دانش اطلاعات  کوانتومی‌ست. پیش از این، درهم‌تافته‌گی زمینه‌‌ساز آزمایش‌های بنیادی بسیاری بر مکانیک کوانتومی بوده، اسباب ارتباطاتی امنی به‌دست‌داده، انجام یک سری محاسبات را با استفاده‌ از الگوریتم‌هایی که هیچ کامپیوتر کلاسیکی قادر به اجرایشان‌ نبود، ممکن ساخته، و پیش‌رفت‌هایی در تصویر‌برداری و حس‌گرهای نوری به ‌وجود آورده‌است.

Figure 1

در گام‌ بعدی، دانش‌‌مندان به منابع قابل‌اعتماد تولید انبوه فوتون‌های درهم‌تافته نیاز دارند. یک پیش‌نهاد، به‌کاربستن نقطه‌های کوانتومی‌ست؛ اما مشکل این اتم‌های دست‌ساز، نقص‌های ساختاری‌شان است که با از بین‌بردن جفت‌شد‌ه‌گی انرژی‌های فوتون‌های گسیل شده، درهم‌تافته‌گی را خراب می‌کنند. در پژوهش‌های تازه‌ای که در Physical Review Letter چاپ شده‌اند،برای غلبه بر این دشواری پیش‌نهاد شده‌است که از طريق اعمال میدان الکتریکی و تنش مکانیکی بر ساختار الکترونی نقطه‌ها اثر گذاشته و امکان درهم‌تافته‌گی احيا شود.

یک جفت فوتون درهم‌تافته، را می‌توان به‌صورت فیزیکی از هم جدا کرد، اما مشخصه‌های کوانتومی آن‌ها هم‌چنان در یک‌دیگر قفل‌‌شده باقي می‌مانند. مثلا هر اندازه‌گیری بر قطبش یکی از فوتون‌ها، خودبه‌خود قطبش دیگری را تعیین می‌کند. امروزه، در بیش‌تر آزمایش‌ها، فوتون‌های درهم‌تافته‌ی لازم را با یک فرآیند ضعیف تغییر خودبه‌خودی فرکانس در یک بلور غیرخطی تولید‌ می‌کنند؛ در این فرآیند، فوتون مادر به دو فوتون دختر درهم‌تافته‌ تبدیل می‌شود که طول‌موج‌ هرکدام بلندتر از طول‌موج مادراست. برای این کار به یک لیزر پمپی با شدت بالا، و  در خروجی به غربال شدید طیفی و فضایی، نیاز است. اگر این فرآیند با قدرت پایینی انجام شود، در بیش‌تر نوبت‌ها فوتون‌های تولید‌شده درهم‌تافته نبوده و اگر قدرت پمپ بسیار بالا باشد، جفت‌فوتون‌های بسیار زیادی گسیل می‌شوند. بنیادی‌ترین مشکل در راه گسترش فن‌آوری‌های داده‌‌های کوانتومی‌ ِ برپایه‌ی فوتون‌های جفت‌شده، آمار این فرآیند‌ است؛ و نکته آن‌جاست که تنها با گسترش این فن‌آوری‌ها می‌توان به رقابت با نمونه‌های مشابه کلاسیکی‌ برخواست.

اما تمام منابع درهم‌تافته‌گی با آمار مشابهی دست‌ به گریبان نیستند. با فرآیند فروریزی اتمی که در آن اتم در هر واپاشی دو فوتون تولید می‌کند، می‌توان در هر آن، تقریبا تنها و تنها یک جفت ِ‌ درهم‌تافته‌‌ درست‌کرد. برای آن‌که در این فرآیند فوتون‌های گسیل شده از نظر تمام درجات آزادی‌شان، معمولا قطبش، تفکیک‌ناپذیر بمانند، تقارن‌های اتمی بسیار مهم خواهند بود. در سال ۲۰۰۰، الیور بیسون و هم‌کاران، به فرآیند مشابهی که می‌توانست در نقطه‌ی کوانتومی نیمه‌رسانا رخ دهد، اشاره کردند. به دلایل فراوانی، برای تولید تک‌جفت‌های درهم‌تافته‌، منبع نیمه‌رسانا را  به اتم‌های گیرافتاده ترجیح می‌دهیم. به علاوه یک ریزتراشه‌ی دماپایین می‌تواند دربردارنده‌ی دسته‌ای از منابع که هرکدام، در هر آن، تنها یک جفت فوتون درهم‌تافته تولید می‌کنند، باشد؛ و در نتیجه می‌تواند جای‌گزین مناسبی برای ساختارهای حجیمی که ممکن است در شرایطی دیگر در روش اتم گیرافتاده استفاده شوند، باشد. متاسفانه رویای منابع نیمه‌رسانا برای تولید هم‌تافته‌گی به سرعت با مشکل روبه‌رو شد: به علت کم‌بود تقارن‌های اتم‌مانند در نقطه‌های کوانتومی واقعی، اولین تلاش‌های تولید جفت فوتون‌های درهم‌تافته در این فن‌آوری ناکام ماندند.

به خاطر روش تولید فوتون‌ها، تقارن اهمیت بالایی می‌یابد. این فرآیند با تولید اکسیتون‌ها که حالات مقید کوتاه‌مدت الکترون رسانش و حفره‌ی والانس می‌باشند، شروع می‌شود. ممکن است این حالت‌ها به صورت نوری یا الکتریکی پمپاژ شوند. ممکن است حالتی که در آن یک جفت اکسیتون نقطه را اشغال می‌کنند، به صورت طیفی انتخاب گردد. از آن‌جا که این دو اکسیتون نقطه‌ی محدود شده‌ی یک‌سانی را اشغال می‌کنند، حالت‌های پایه‌شان تابع‌موج فضایی مشابه و با توجه به اصل طرد پاولی، اسپین‌های مخالف خواهند داشت؛ و زمانی‌‌که الکترون‌ها و حفره‌‌های دو اکسیتون با هم ترکیب می‌شوند، قطبش دو فوتون گسیل شده که با اسپین اکسیتون‌ها هم‌بسته‌اند، مخالف هم خواهند بود. اگر این دو فوتون از نظر طول‌موج هم تفکیک‌ناپذیر باشند، آ‌ن‌گاه درهم‌تافته‌ی‌قطبشی‌‌اند. به‌هرروی، نقص‌های نقطه‌های کوانتومی می‌توانند انرژی هرکدام از این حالت‌های اکسیتونی را تغییر داده و منجر به هم‌بسته‌گی نامطلوبی میان قطبش هر فوتون و طول‌موج گسیل‌اش شود و این اثر بدی روی درهم‌تافته‌گی دارد. نمودار انرژی یک نقطه‌ی نقص‌دار، می‌تواند به علت جفت‌شده‌گی‌های اکسیتون‌ها پیچیده باشد.

برای به‌بود بخشیدن به درهم‌تافته‌گی باید انرژی هر دو حالت اسپینی اکسیتون جفت شوند. نقص‌هایی که تبه‌گنی اسپینی در نقطه‌های کوانتومی InGaAs را برهم می‌زنند، به صورت تصادفی و به‌خاطر تنش‌ها ایجاد می‌شوند و به سختی می‌توان از دست آن‌ها رها شد. پژوهش‌گران در گذشته با روش‌های اصلاح پس از رشد، مانند افزودن تنش، میدان‌های مغناطیسی dc، میدان‌های الکتریکي dc، و میدان‌های نوری، به تولید اسپین‌های تبه‌گن و در نتیجه درهم‌تافته‌گی پرداخته‌اند. باوجود این تصحیح‌ها آینده‌ی رویای تولید آرایه‌های بزرگ من‍ابع نقطه‌ای کوانتومی، مبهم است؛ چراکه این روش‌های اصلاح تنها برای نقطه‌های اندکی کار می‌کنند، مثلا آن‌هایی که نقص‌شان با عامل استفاده شده، جور در می‌آید.

بنابر گزارش رینالدو تروتا و هم‌کاران از موسسه‌ی تحقیقاتی مواد و حالت جامد لایبنیتز در آلمان، این گروه به این پیش‌رفت که به جای یک، از دو عامل استفاده‌کنند، دست یافته‌اند. با این ترکیب می‌توان تبه‌گنی اسپینی اکسیتون را  تقریبا در هر نوع نقطه اصلاح کرد؛ در این طراحی جدید، اولین عامل یک میدان الکتریکی dc در راستای رشد نقطه (که در شکل با صفحه‌های فلز و باتری نمایش داده‌ شده‌است) می‌باشد. این گروه پژوهشی با رشد دادن نقطه در ساختاری دیود مانند به این میدان می‌رسد. دومین عامل، تنشی مکانیکی‌ست که در جهت عمود بر میدان dc (در شکل با یک گیره نشان داده شده‌است) وارد می‌شود. این تنش با محرک‌های فیزوالکتریکی که در ارتباط مکانیکی با این دست‌گاه‌اند، پخش می‌شود. بنا بر توضیح نویسنده‌گان، اساس کار این دست‌گاه این است که عامل اولی جهت اختلال ِ مخرب ِ درهم‌تافته‌گی را تعیین کرده و دیگری دامنه‌‌اش را تنظیم می‌کند. این گروه برای اثبات این حرف میدان الکتریکی و تنش را تغییر داده و انرژی و قطبش فوتون‌های گسیل‌شده از چند نوع نقطه‌‌ی کوانتومی را اندازه‌گیری کردند. سپس این مشاهدات را با یک مدل ساده اما رایج بررسی کردند. هرچند با این آزمایش‌ها واقعا به درهم‌تافته‌گی نرسیدند، نتیجه‌ها نشان می‌دهند که  تبه‌گنی لازم برای خلق جفت فوتون‌های درهم‌تافته به‌دست آمده‌است. کارهای پیشین شکی بر جای نمی‌گذارند که این دست‌گاه ِ دوعامله می‌تواند درهم‌تافته‌گی تولید کند.

به هر روی ساختن جفت‌های درهم‌تنیده‌ با به‌کار بستن ِ نقطه‌های کوانتومی نیمه‌رسانا هم‌چنان تلاش فراوانی می‌خواهد. برای داشتن یک منبع موثر باید فوتون‌های گسیل‌شده تنها در یک جهت دل‌خواه باشند؛ این مشکلی‌ست که با افزودن خلاهای میکرونی حل خواهد شد. هم‌چنان باید به بسیاری مشکلات مهندسی پرداخت؛ مانند مدیریت جای‌گزینی نقطه‌های کوانتومی با بازده بالا ، انتخاب روش پمپاژ الکتریکی، و یافتن سازوکاری برای جبران ناهم‌گنی بالای فوتون‌ها در دست‌گاه‌های مختلف. برای پیروزی بر این دشواری‌ها هم‌چنان باید به‌ پژوهش پرداخت. اما به سبب بهینه‌گی منابع فوتون‌های درهم‌تنیده، این تلاش‌ها بی‌فایده نخواهند بود؛ چراکه به واقعیت پیوستن فن‌آوری‌های ِ برپایه‌ی ِ درهم‌تافته‌گی با کاربردهایی در اندازه‌گیری و داده‌های کوانتومی، خود انقلاب بزرگی‌ست.

لينك مقاله

نیروی کازیمیری برای حیات!

شاید اثر کازیمیر را تنها یک اثر کوانتومی بدانیم که در آن افت‌‌و‌خیزهای کوانتومی می‌تواند منجر به نیروی جاذبه بین دو آینه موازی شود. اما اثر کازیمیر یک معادل ترمودینامیکی دارد که به خاطر افت‌‌و‌خیزهای مواد سازنده یک سیال در نزدیکی نقطه بحرانی است. پژوهشی جدید از فیزیکدانان آمریکایی نشان میدهد که این نیروهای «کازیمیر بحرانی» بر پروتئین‌های درون غشاهای سلولی وارد و باعث می‌شود تا پروتئین‌ها با یکدیگر تعامل کرده و به محرک‌هایی همچون گرده‌ها پاسخ دهند.

همه سلول‌ها از غشایی پوشیده شده‌اند که حرکت مواد به درون و بیرون ارگانیسم را مدیریت می‌کند. غشاها از مولکول‌هایی ساخته شده‌اند که لیپید نامیده می‌شوند و در واقع پروتئین‌ها در لیپیدها جای گرفته‌اند. در ابتدا تصور می‌شد که لیپیدها کاملا یکنواخت هستند اما با انجام آزمایش‌هایی در دهه 1970 و 1980 مشخص شد که لیپیدها به شکل خوشه‌ای جمع می‌شوند و ساختارهایی ده‌(صد)ها برابر بزرگتر از اندازه خود می‌سازند. با این حال دانشمندان متوجه نشدند که انرژی لازم برای نگهداری چنین ساختاری از کجا می‌آید.

در سال 2008، فیزیکدان سارا ویچ در دانشگاه کرنل نیویورک و همکارانش جوابی برای این سوال یافتند. پیشتر می‌دانستیم که غشاهای جداشده از سلول‌های پستانداران در دمای بیش از 25 درجه سانتی‌گراد در حالت مایع قرار دارند اما در زیر این دما، به دو حالت مجزا جدا می‌شوند که شامل انواع گوناگونی از لیپیدها و پروتئین‌هاست(اندکی شبیه مخلوط آب و روغن). کشف گروه ویچ این بود که وقتی دما تا نزدیکی دمای بحرانی(دمایی که فازها جدا می‌شوند) پایین آورده می‌شود، افت‌وخیزهایی از فاز دوم مشاهده می‌گردد. این افت‌وخیزها  چند میکرون اندازه‌گیری شدند و در میکروسکوپ اپتیکی قابل مشاهده بودند و شکل‌گیری آن‌ها نیاز به انرژی چندانی ندارد.

نگاه انتقادی به رفتار بحرانی

اکنون ویچ به دانشگاه میشیگان رفته اما در پژوهش اخیر خود با گروه بنجامین ماچتا و جیمز ستنا از دانشگاه کرنل همکاری کرده تا هدف این رفتار بحرانی را دریابد. پژوهشگران فرض کردند که انواع خاصی از پروتئین‌ها به یکی از فازها جذب می‌شوند و بقیه پروتئین‌ها به فاز دیگر تمایل دارند بنابراین پروتئین‌های مشابه به سمت هم کشیده می‌شوند اما پروتئین‌های نامشابه از هم دور می‌گردند.

همانطور که ویچ می‌گوید این برهمکنش‌های پروتئینی «آبشار»هایی درست می‌کند که اطلاعات مربوط به مواد سازنده پروتئین غشا و درون سلول را انتقال می‌دهد. از این اطلاعات می‌توان برای پاسخ به پرسش‌هایی همانند «آیا زمان خوبی برای تقسیم است؟» یا «آیا حرکت به سمت غذا امن است؟»، استفاده کرد. او می‌گوید:«فکر می‌کنیم یک دلیل این که غشاهای سلولی افت‌وخیزهای بحرانی دارند این است که بعضی از مراحل اولیه را تشهیل کنند.»

برای محاسبه شدت و شکل نیروی کازیمیر بین پروتئین‌ها، ماچتا از ریاضیاتی استفاده کرد که اصولا برای نظریه ریسمان ساخته شده است. همان‌طور که انتظار داشت متوجه شد که نیرو برای پروتئین‌های همانند جاذبه و برای پروتئین‌های مختلف دافعه است. همین امر در فواصلی از مرتبه چند ده نانومتر منجر به انرژی پتانسیلی منجر می‌شود که چند برابر انرژی گرمایی پروتئین است. به خاطر اثر پوششی یون‌های درون سلول، نیروهای بسیار قوی الکترواستاتیک به حدود یک نانومتر محدود هستند. ماچتا می‌گوید:«ما دریافته‌ایم در نزدیکی نقطه بحرانی، سلول‌ها نیرویی بلندبرد بین پروتین‌ها وارد می‌کنند.» ستنا می‌افزاید:«واقعا شگفت‌انگیز است که چند برهمکنش در سلول، انرژی هم‌اندازه افت‌وخیزهای گرمایی دارند؟ ما فکر می‌کنیم که سلول صرفه‌جو باشد!»

کاربردهای پزشکی

پژوهشگران شک دارند که وجود این نیروهای کازیمیر بحرانی توضیح دهد چرا سلول‌هایی با کلسترول کم آن‌طور که باید عمل نمی‌کنند. آن‌ها حدس می‌زنند که حذف کلسترول، غشا را از نقطه بحرانی خود دور می‌کند. آن‌ها گمان می‌کنند که همین نیروها در فرایند عطسه نقش دارند. ستنا توضیح می‌دهد وقتی پروتئین‌های گیرنده در سلول‌های ایمنی متوجه ماده محرکی همچون گرده می‌شوند، کنار هم جمع شده و با تحریک هیستامین‌ها باعث عطسه می‌گردند. وی می‌گوید شاید محرک انتخاب پروتئین‌های گیرنده را برای یکی از فازهای مایع تغییر دهد و آن‌ها را به سمت هم بکشد.

این گروه امیدوار است که کارش به کاربردهای پزشکی منجر شود. ویچ توضیح می‌دهد که تصور می‌شود نقص در لیپیدها منجر به بیماریهای زیادی مانند سرطان، بیماری‌های خودایمنی(خودشکنی) و التهاب می‌شود. او می‌افزاید:«این کار روشن می‌کند که لیپیدها چگونه بر این بیماری‌ها اثر می‌گذارند. در آینده، می‌توانم داروهایی را تصور کنم که به طور خاص لیپیدها را هدف قرار می‌دهند تا برهمکنش بین پروتئین‌ها را منظم و بیماری‌های انسانی را درمان کنند.» ساتنا می‌افزاید که مقیاس زمانی برای دستیابی به این داروها احتمالا طولانی است: «کار ما بیشتر شبیه این است که بخواهیم بتن بهتری برای ساخت پیِ آسمانخراش کاربردهای پزشکی درست کنیم.»

تطابق نظریه با مشاهده

علاوه بر کاربردهای آینده این طرح، ستنا معتقد است که وجود رفتار بحرانی، اتکا بر سازوکارهای تکاملی را برای توضیح رفتار سلول‌ها کم می‌کند. او خاطر نشان می‌کند:«چیزهایی زیادی درباره سلول‌ها وجود دارد که زیست‌شناسان فرض می‌کنند که تکامل آن را به وجود می‌آورد. من حدس می‌زنم که تکامل به سلول اجازه می‌دهد تا این نقطه بحرانی را بیابد. اما به محض این‌که سلول در نقطه بحرانی قرار گرفت، می‌توانیم از نظریه استفاده کنیم و بسیاری از رفتارهای دیگر را توضیح دهیم بدون اینکه همه‌چیز را به تکامل ربط دهیم.»

با این وجود، بعضی از متخصصان احساس می‌کنند که در مورد نتایج تجربی ویچ باید با احتیاط صحبت کرد زیرا این آزمایش‌ها با استفاده از سلول‌های دست‌نخورده صورت نگرفته‌اند. فردی که خواست نامش اعلام نشود، می‌گوید که جداسازی غشا از بقیه سلول می‌تواند بعضی از مواد را از غشا حذف کند. بدنه سلول نیز می‌تواند به شکلی بر افت‌وخیزهای بحرانی اثر بگذارد. وی می‌گوید:«من هنوز قانع نشده‌ام که نظریه ارایه شده در مورد غشاهای زیستی زنده درست باشد. بنابراین فکر می‌کنم باید کار تجربی بیشتری صورت گیرد.»

لينك مقاله در وبلاگ

اصطکاک قابل تنظیم

بیش‌ترِ ماشین‌آلات، از چرخ‌های واگن گرفته تا موتورهای ماشین‌های پرسرعت، بدون روغن‌کاری و روان‌سازی به سرعت از کارکردن بازمی‌ایستند. علت اصطکاک است، پدیده‌ای بسیار پیچیده که سطوحِ در حالِ تماس را گرم کرده و به آن‌ها آسیب می‌رساند. همه‌ی روش‌های سنتی، از شیوه‌ی روغن‌کاری برای کاهش و کنترلِ میزانِ اصطکاک بهره می‌گیرند. این روش‌ها منفعل بوده و هیچ‌گاه کاملاً رضایت‌بخش نیستند. درحالی‌که Carlos Drummond از مرکزِ CNRS Centre de Recherche Paul Pascal در فرانسه در گزارشی به Physical Review Letters اعلام کرده که روش‌های پیش‌رفته‌ای وجود دارند که با به‌کارگیری میدان‌های الکتریکی، امکان تنظیم نیروهای اصطکاکی را به صورتِ فعال فراهم می‌کنند.

Drummond  کارِ خود را با توجه به این نکته آغاز کرد که میدان‌های الکتریکی، ساختارِ مولکول‌های دارای بار الکتریکی را دگرگون می‌کنند. او توانست با به‌کارگیریِ مولکول‌هایی که به صورتِ خودبه‌خودی جذبِ سطوح می‌شوند، لایه‌ای از پلیمرهای باردار که پلی‌الکترولیت نامیده می‌شوند را، روی ورقه‌های صیقلیِ میکا رسوب دهد. این مولکول‌ها روی سطح «فرچه‌های پلیمری» می‌سازند چون به سطح چسبیده و همانندِ موهای ریز روی مسواک، از سطح بالا می‌روند. هنگامی‌که دو سطحِ میکا که به این ترتیب ساخته شده‌اند روی یک‌دیگر قرار گیرند، نیروی اصطکاک میان آن‌ها به چگونگیِ فرورفتنِ این فرچه‌ها در هم بستگی دارد. Drummond  با اتصالِ الکترودها به پشتِ دو صفحه‌ی میکا، میدانی الکتریکی برقرار کرد و به این ترتیب نشان داد که ساختارِ پلیمرها در اثرِ اعمالِ میدانِ الکتریکی چنان تغییر می‌کند که میزانِ اصطکاکِ میانِ این دو سطح، به طور چشم‌گیری کاهش می‌یابد. چون سامانه‌ها بسیار سریع به میدانِ الکتریکی پاسخ‌ می‌دهند و نیز ساختِ سیگنال‌های الکتریکی بسیار سرراست و آسان است، Drummond پیش‌بینی می‌کند که اثرِ دیده شده، در بسیاری از کاربردها به‌کار آید، از کاهشِ ساییدگی در اندام‌های مصنوعی (پروتزها) تا کنترلِ بی‌درنگِ حسِ لامسه. می‌توان کاربریِ کامپیوتر را برای کسانی که دچارِ نقص در بینایی هستند، چنان ترتیب داد که اصطکاکِ ناشی از لمس کردن، موجبِ جابه‌جاییِ داده‌ها شود.

Planck's law violated at the nanoscale

In a new experiment, a silica fibre just 500 nm across has been shown not to obey Planck's law of radiation. Instead, say the Austrian physicists who carried out the work, the fibre heats and cools according to a more general theory that considers thermal radiation as a fundamentally bulk phenomenon. The work might lead to more efficient incandescent lamps and could improve our understanding of the Earth's changing climate, argue the researchers.

A cornerstone of thermodynamics, Planck's law describes how the energy density at different wavelengths of the electromagnetic radiation emitted by a "black body" varies according to the temperature of the body. It was formulated by German physicist Max Planck at the beginning of the 20th century using the concept of energy quantization that was to go on and serve as the basis for quantum mechanics. While a black body is an idealized, perfectly emitting and absorbing object, the law does provide very accurate predictions for the radiation spectra of real objects once those objects' surface properties, such as colour and roughness, are taken into account.

However, physicists have known for many decades that the law does not apply to objects with dimensions that are smaller than the wavelength of thermal radiation. Planck assumed that all radiation striking a black body will be absorbed at the surface of that body, which implies that the surface is also a perfect emitter. But if the object is not thick enough, the incoming radiation can leak out from the far side of the object instead of being absorbed, which in turn lowers its emission.

Spectral anomalies spotted before

Other research groups had previously shown that miniature objects do not behave as Planck predicted. For example, in 2009 Chris Regan and colleagues at the University of California, Los Angeles reported that they had found anomalies in the spectrum of radiation emitted by a carbon nanotube just 100 atoms wide.

In this latest work, Christian Wuttke and Arno Rauschenbeutel of the Vienna University of Technology have gone one better by showing experimentally that the emission from a tiny object matches the predictions of an alternative theory.

To produce the 500-nm thick fibre they used in their experiment, Wuttke and Rauschenbeutel heated and pulled a standard optical fibre. They then heated the ultra-thin section, which was a few millimetres long, by shining a laser beam through it and used another laser to measure the rate of heating and subsequent cooling. Bounced between two mirrors integrated into the fibre a fixed distance apart, this second laser beam cycled into and out of resonance as the changing temperature varied the fibre's refractive index and hence the wavelength of radiation passing through it.

Fluctuational electrodynamics

By measuring the time between resonances, the researchers found the fibre to be heating and cooling much more slowly than predicted by the Stefan–Boltzmann law. This law is a consequence of Planck's law and defines how the total power radiated by an object is related to its temperature. Instead, they found the observed rate to be a very close match to that predicted by a theory known as fluctuational electrodynamics, which takes into account not only a body's surface properties, but also its size and shape plus its characteristic absorption length. "We are the first to measure total radiated power and show quantitatively that it agrees with model predictions," says Wuttke.

According to Wuttke, the latest work could have practical applications. For example, he says that it might lead to an increase in the efficiency of traditional incandescent light bulbs. Such devices generate light because they are heated to the point where the peak of their emission spectrum lies close to visible wavelengths, but they waste a lot of energy because much of their power is still emitted at infrared wavelengths. Comparing a 500nm-thick light-bulb filament with a very short antenna, Wuttke explains that it would not be thick enough to efficiently generate infrared radiation, which has wavelengths above about 700 nm, therefore suppressing emission at these wavelengths and enhancing emission at shorter visible wavelengths. He points out, however, that glass fibre, while ideal for the laboratory, would be a poor candidate for everyday use, since it is an insulator and is transparent to visible light. "A lot of research would be needed to find a material that conducts electricity and is easily heated, while capable of being made small enough and in large quantities," he says.

Atmospheric applications

The research might also improve understanding of how small particles in the atmosphere, such as those produced by soil erosion, combustion or volcanic eruptions, contribute to climate change. Such particles might cool the Earth, by reflecting incoming solar radiation, or warm the Earth, by absorbing the thermal radiation from our planet, as greenhouse gases do. "The beauty of fluctuational electrodynamics", says Wuttke, "is that just by knowing the shape and absorption characteristics of the material you can work out from first principles how efficiently and at which wavelengths it is absorbing and emitting thermal radiation." But, he adds, here too more work would be needed to apply the research to real atmospheric conditions.

One thing that Wuttke and Rauschenbeutel are sure of, however, is that their research does not undermine quantum mechanics. Planck's theory, explains Rauschenbeutel, is limited by the assumption that absorption and emission are purely surface phenomena and by the omission of wave phenomena. His principle of the quantization of energy, on the other hand, is still valid. "The theory we have tested uses quantum statistics," he says, "so it is not in contradiction with quantum mechanics. Quite the opposite, in fact."

Regan describes the latest work as "very elegant", predicting that it will "illuminate new features of radiative thermal transport and Planck's law at the nanoscale". He suggests, however, that using an emissivity model that incorporates the transparency of the thin optical fibres would allow Planck's law to more accurately describe the radiation from these tiny emitters.

A Casimir force for life

The Casimir effect is perhaps best known as a quantum phenomenon, in which vacuum fluctuations can give rise to an attractive force between two parallel mirrors. But there is also a thermodynamic equivalent, caused by fluctuations in the composition of a fluid close to its critical point. New research by physicists in the US suggests that these "critical Casimir" forces act on the proteins inside cellular membranes, allowing proteins to communicate with one another and stimulating cells' responses to allergens such as pollen.

All cells are surrounded by a membrane that controls the flow of substances into and out of the organism. Membranes are made up of molecules called lipids within which proteins are embedded. They were once thought to be essentially uniform, but a number of experiments starting in the 1970s and 1980s indicated that the lipids in fact cluster to form distinct structures tens or hundreds of times larger than the lipid molecules themselves. Scientists did not understand, however, where the energy needed to maintain such structures came from.

In 2008 biophysicist Sarah Veatch at Cornell University in upstate New York and colleagues found a solution. It was known that above 25 °C membranes isolated from live mammal cells exist in a single liquid phase, whereas below that temperature they separate out into two distinct phases, composed of different kinds of lipids and proteins – a bit like oil and water refusing to mix when brought together. What Veatch's group discovered was that as they lowered the temperature of the membranes close to that at which the phases separate out, known as the critical point, small fluctuating patches of the second phase started to appear. Such fluctuations – which measured several microns across and were visible in an optical microscope – do not require large amounts of energy to form.

Critical look at criticality

Veatch has since moved to the University of Michigan but for the current research teamed up with two physicists back at Cornell, Benjamin Machta and James Sethna, to understand the purpose of this criticality. The researchers reckoned that certain kinds of proteins are attracted to one of the phases while other kinds are attracted to the second phase, so tending to draw like proteins together and separate out unlike proteins. As Veatch explains, these interacting proteins would form "signalling cascades" to transmit information regarding the identity of compounds in a cell's vicinity from receptor proteins in the membrane to the inside of the cell. Such information could be used, for example, to decide whether it is a good time to divide or whether it is safe to crawl towards food. "We think that one reason cell membranes contain critical fluctuations is to help facilitate some of the early steps in these signalling pathways," she says.

To calculate the strength and form of the Casimir forces between proteins, Machta used mathematics developed originally for string theory. He found that, as expected, the forces are attractive for like proteins and repulsive for unlike ones, and that they yield a potential energy several times that of the proteins' thermal energy, over distances of tens of nanometres. Much stronger electrostatic interactions, he explains, are limited to ranges of about a nanometre by the screening effects of ions inside the cell. "We have found that by tuning close to criticality, cells have arranged for a long-ranged force to act between proteins," he says.

Sethna adds a broader perspective. "It is amazing how many reactions in cells all involve energies of the same size as thermal fluctuations," he says. "We think that it is the cell being economical – why pay more?"

Something to sneeze at

The researchers suspect that the existence of these critical Casimir forces explains why cells low on cholesterol do not function as they should – the removal of the cholesterol, they reckon, taking the membrane away from its critical point. They also speculate that the forces are involved in the sneezing process. Sethna explains that when the receptor proteins in immune cells detect an allergen such as pollen they cluster together, and this clustering somehow triggers the histamines that cause sneezing. He says that perhaps an allergen simply changes the preference of the receptor proteins for one of the two liquid phases in the membrane, hence drawing them together.

The team is hopeful that its work could lead to medical applications. Veatch explains that defects in lipids are thought to contribute to a large number of diseases, including cancer, auto-immunity diseases, and inflammation. "This work may shed light on how lipids could impact some aspects of these diseases," she says. "In the future, I can imagine drugs that specifically target lipids to regulate interactions between proteins in order to treat human disease."

Sethna adds, however, that the time scale for such applications is likely to be long. "Our work is more like figuring out how to make better concrete to build the subbasement of the skyscraper that eventually would house the penthouse of health applications," he says.

Theory explains behaviour

But in addition to any future applications, Sethna argues that the existence of criticality within cells lessens the reliance on purely evolutionary mechanisms when trying to understand how cells operate. "There are lots of things about cells that biologists assume happen because 'evolution made it so'," he says. "Here, I guess, evolution allowed the cell to find this critical point. But once the cell is at the critical point, we can use systematic, cool theory to explain lots of the behaviour, without repeatedly accounting for everything using evolution."

However, some independent experts feel that Veatch's experimental results must be treated with caution because they were not obtained using intact cells. One, who asked to remain anonymous, argues that the separation of the membrane from the rest of the cell might have removed certain relevant components from the membrane and that the body of the cell itself might influence the critical fluctuations in some way. "I am not yet convinced that the theory presented is applicable to in vivo biological membranes," he says. "I therefore think that much more experimental work has to be done to investigate this phenomenon."

The research is described in Physical Review Letters.

موفقیت گرانش نیوتنی اصلاح‌شده در توضیح کهکشان‌های بیضوی

نظریه‌ای که برای جایگزینی ماده تاریک ارایه شده، ویژگی‌های دورانی دو کهکشان بیوضی را با موفقیت پیش‌بینی کرده است. این کار با استفاده از نظریه دینامیک نیوتنی اصلاح شده(MOND) توسط مردهای میلگرام انجام شد که اولین بار خودش 30 سال پیش این نظریه را پیشنهاد داد. با نشان دادن این که MOND را می‌توان برای توضیح ویژگی کهکشان های بیضوی پیچیده – علاوه بر کهکشان های مارپیچی بسیار ساده تر – به کار برد، میلگرام MOND را جایگزینی با ارزش برای ماده تاریک می‌داند زیرا خواص عجیب کهکشان‌ها را شرح می‌دهد.

ماده تاریک در 1933 پیشنهاد شد تا توضیح دهد چرا کهکشان‌های حاضر خوشه‌های خاصی، سریع‌تر از حالتی حرکت می‌کنند که از «ماده باریونی» قابل مشاهده آن‌ها انتظار داریم. چند دهه بعد، رفتارهای مشابهی در کهکشان‌های منفرد دیده شد: سرعت دورانی ستاره‌های خارجی به شکل تابعی از فاصله «افت نمی‌کرد»، بلکه ثابت می‌ماند. این مشاهدات مستقیما با گرانش نیوتنی در تضاد بودند؛ گرانش نیوتنی همان قدر که روی زمین یا در منظومه شمسی معتبر هستند باید در ناحیه برون کهکشانی نیز معتبر بماند. اما اگر فرض کنیم که «هاله‌ای» از ماده نامرئی در(یا حدود) ساختارهای کهکشانی وجود دارد، قانون معکوس مجذوری نیوتن بازگردانده می‌شود.

 فیزیکدانان برای توضیح این بی‌نظمی‌های کهکشانی در ابتدا تلاش کردند تا اندازه گیری‌های مستقیمی از ماده تاریک انجام دهند تا دقیقا چیستی آن را دریابند که البته با موفقیت بسیار کمی همراه بود. در نتیجه، پژوهشگرانی وجود دارند که باور به وجود ماده تاریک ندارند و توضیح‌های جایگزینی برای رفتار عجیب کهکشان‌ها پیشنهاد داده‌اند.

 موفقیت چشمگیر

اکنون تحلیل جدید نشان می‌دهد که یکی از نظریات جایگزین به نام MOND، ویژگی‌های دو کهکشان بیضوی را به خوبی ماده تاریک توصیف می‌کند. MOND اصولا برای توصیف کهکشان‌های مارپیچی ارایه شد و موفقیت عظیمی در پیش‌بینی بعضی ویژگی‌های این ساختارها داشت. تعمیم آن به توضیح کهکشان‌های بیضوی می‌تواند، استدلال‌ها را به نفع این نظریه تغییر دهد. به همین دلیل، پیش‌بینی شده کهکشان‌های بیضوی توسط فرایندهای متفاوتی با کهکشان‌های مارپیچی ساخته شده‌اند و دشواری محاسبه ویژگی‎هایشان بسیار بیشتر است.

MOND در ابتدا توسط احترفیزیکدان موسسه وایزمن، مردهای میلگرام در سال 1983 پیشنهاد شد. فرض پایه نظریه این است که در شتاب‌های بسیار کوچک کمتر از 10-10 متر بر مجذور ثانیه، قانون دوم نیوتن برقرار نیست. در عوض، فرمول نیوتن اصلاح شده به نحوی است که تحت شرایطی خاص، نیروی گرانش بین دو جسم آرامتر از قانون عکس مجذوری افت می‌کند.

قابل پیش بینی است نظریه ای که قانون نیوتن را تغییر می دهد با نقدهای بسیاری روبرو شود و MOND استثنا نبود. با این همه، این نظریه جاذبه‌های انکارناپذیری داشت: همچون پیش‌بینی‌های قابل آزمون و متکی نبودن بر ماده تاریک نادیده. در سال 2004، ژاکوب بکنشتین نسخه ای از MOND ارایه داد که با نظریه نسبیت عام انشیتین سازگار است و همین توجه بیشتر جامعه فیزیک را برانگیخت.

بی نیاز از ماده تاریک؟!
میلگرام در پژوهش جدید خود، هیدرواستاتیک پوشی کروی از گاز داغ و گسیل کننده اشعه اکس را در دو کهکشان بیضوی تحلیل می‌کند و نشان می‌دهد که پیش‌بینی‌های MOND معتبر هستند. میلگرام می‌گوید این امر از این رو اهمیت دارد که تصور می‌شود تحول کهکشان‌های بیضوی کاملا با کهکشان‌های مارپیچی و کهکشان‌های دیسکی متفاوت است. فکر می‌شود که کهکشان‌های بیضوی از برخورد و ادغام دو کهکشان شکل می‌گیرند. موفقیت MOND بدین معنی است که دقت پیش بینی آن نمی‌تواند تصادفی باشد و همین، نشانه‌ای از واقعیتی ژرف تر است.

استفاده از یک قانون ریاضی برای پیش بینی سرعت دورانی دو نوع کهکشان با دو نحوه شکل‌گیری، واقعیتی است که فرضیه ماده تاریک را رد می‌کند. او می‌گوید:«در تصویر ماده تاریک، کهکشان‌هایی که امروزه می‌بینیم نتیجه نهایی فرایندهای شکل‌گیری بسیار بغرنج و اتفاقی هستند. شما با کهکشان‌های کوچک آغاز می‌کنید. آن‌ها ادغام می‌شوند، برخورد‌می کنند و انفجارهایی در کهکشان روی می‌دهد. در طی این تحول طوفانی، ماده تاریک و ماده معمولی به شکل‌های بسیاری متفاوتی تحت این فرایندها قرار می‌گیرند و بنابراین شما واقعا انتظار ندارید که همبستگی واقعی بین ماده تاریک و ماده معمولی مشاهده کنید. این نقطه ضعف مهمی برای تصویر ماده تاریک است.»

دن هوپر، اخترفیزیکدان و متخصص ماده تاریک از فرمی لب، می‌گوید که MOND با نشان دادن قابلیت‌های خود در کهکشان‌ها، از نقدها سربلند بیرون نخواهد آمد؛ حتی اگر کهکشان‌هایی باشند که قبلا آزموده نشده‌اند. او می‌افزاید:«من فهمیده‌ام که MOND عملکرد بسیاری خوبی در توصیف دینامیک کهکشان‌ها دارد و این مقاله نیز مثال دیگری از موفقیت MOND در مقیاس کهکشانی است. با این حال MOND در مقیاس‌های بزرگتری همچون خوشه‌های کهکشانی یا مقیاس های کیهانشناسی بزرگتر باز می ماند.» او ناهمسانگردی تابش زمینه کیهان را مثالی از آن ها می‌داند.

لينك مقاله در وبلاگ

نوبل فیزیک 2012 برای اطلاعات کوانتومی

جایزه نوبل فیزیک سال 2012 به سِرژ هارُش و دیوید واینلند به خاطر کار بر روی کنترل سامانه‌های کوانتومی اهدا شد. به نقل از فرهنگستان سلطنتی علوم سوئد، این جایزه به دلیل «روش‌های تجربی نوینی» به هارُش و واینلند داده می‌شود که «اندازه‌گیری و تغییر سامانه های‌کوانتومی منفرد را میسر می‌سازند.» هارُش شهروند فرانسوی است و در کالج دوفرانس پاریس کار می‌کند. واینلند شهروند آمریکا است و در موسسه ملی استانداردها و فناوری در بولدر، کلرادو فعالیت می‌کند. فرهنگستان سلطنتی علوم سوئد در اطلاعیه‌ای آورده است: «سرژ هارُش و دیوید واینلند مستقلا روش‌هایی برای اندازه‌گیری و تغییر ذرات منفرد ایجاد کرده‌اند؛ روش هایی که سرشت کوانتومی [ذرات] را حفظ می‌کنند.»

پیشتاز CQED

هارُش در سال 1944 در کازابلانکا مراکش متولد شد و در سال 1971 از دانشگاه پیر و ماری کوری درجه دکترا را دریافت کرد. او نیمی از این جایزه را به خاطر حوزه جدیدی کسب کرد که الکترودینامیک کوانتومی کاواکی(CQED) خوانده می‌شود. در این نظریه، با قرار دادن اتم در یک کاواک اپتیکی یا میکروویو خواص آن کنترل می‌شود. هارُش بر آزمایش های میکروویو تمرکز کرد و این روش را به روشی تبدیل کرد که خواص تک فوتون‌ها کنترل می‌کند.

در مجموعه‌ای از آزمایش‌های برجسته، هارُش از CQED استفاده‌ کرد تا آزمایش مشهور گربه شرودینگر را مطالعه کند. در این آزمایش، یک سامانه در برهم‌نهی از دو حالت کوانتومی بسیار متفاوت قرار داد و تا زمانی که اندازه‌گیری روی آن سامانه صورت نگیرد، این برهم‌نهی حفظ می‌شود. چنین حالت‌هایی بسیار شکننده هستند و روش های ایجادشده در CQED برای اندازه‌گیری حالت‌های کوانتومی، در توسعه رایانه‌های کوانتومی کاربرد دارد.

استاد کنترل یون

دیوید واینلند در سال 1944 در میلواکی ویسکانزین متولد شد و دکترای خود را در سال 1970 از دانشگاه هاروارد اخذ کرد. وی علاوه بر رهبری گروهی در موسسه ملی استانداردها و فناوری (NIST)، با دانشگاه کلرادو-بولدر همکاری می‌کند.

او جایزه نوبل را به خاطر کارهای انقلابیش در زمینه کنترل کوانتومی یون‌ها به دست آورده است. یکی از موفقیت‌های او ساخت و انتقال یک یون در حالت گربه شرودینگر، با استفاده از روش دام‌اندازی ارایه شده در NIST است. دام‌های یونی با استفاده از میدان‌های الکتریکی به دقت کنترل شده، در خلا بسیار بالا ساخته می‌شوند. این دام‌ها می‌توانند یک یا چند یون را در کنار هم به دام بیندازند.

گیراندازی یون

با دام‌اندازی یون‌ها، آن‌ها نوسان می‌کنند. برای سردسازی این یون‌ها تا پایین‌ترین حالت انرژی(انرژی حالت پایه) باید این انرژی نوسانی را از آن‌ها گرفت. واینلند برای این کار روشی مبتنی بر لیزر ساخت که بسته انرژی نوسانی را از یون حذف می‌کند. این روش «باند جانبی» یون‌ها را در برهم‌نهی از حالت‌ها (گربه شرودینگر) قرار می‌دهد. واینلند از روش‌های کنترل یون برای ساخت ساعت‌های اپتیکی فوق دقیق و مدارهای رایانه‌های کوانتومی استفاده نمود.

اطلاعات کوانتومی

رینر بلت از دانشگاه اینسبروک اتریش که آزمایش‌هایی در هر دو زمینه CQED و دام‌اندازی یون انجام داده، انتخاب‌های کمیته نوبل را تایید می‌کند. بلت اشاره می‌کند که این دو نفر روش‌های مشابهی ساخته‌اند که در سامانه‌های فیزیکی، کاربردهای مختلفی دارند. روش‌هایی که پایه بسیاری از سامانه‌های اطلاعات کوانتومی نوظهور است.

بلت، کار سال 2008 واینلند در مورد «طیف‌نگاری منطق کوانتومی» را یادآوری می‌کند که در آن یک تک یون به عنوان ساعت اپتیکی استفاده شود و همچنین ساخت قطعه ای کوچک در 2009 که همه توابع موردنیاز در پردازش کوانتوم بزرگ یونی را فراهم می کند.

کار هارُش چهارچوبی است برای کنترل برهمکنش بین یک تک اتم و یک فوتون. چیزی که بلت می گوید در حال حاضر برای تبادل اطلاعات کوانتومی بین اتم‌ها و فوتون‌ها استفاده می‌شود. این کار فیزیکدانان را قادر می‌کند تا رایانه‌های کوانتومی بسازند که داده‌ها در بیت های کوانتومی(کیوبیت) ایستایی ذخیره شوند که در زمان‌های نسبتا طولانی پایدار هستند. همچنین، داده‌ها را از طریق فوتون‌ها می‌توان بین اتم‌ها منتقل کرد به صورتی که حالت کوانتومی آن‌ها ضمن سفر در فواصل نسبتا طولانی حفظ شود.

Dark-matter alternative tackles elliptical galaxies

An alternative theory to dark matter has successfully predicted the rotational properties of two elliptical galaxies. The work was done in Israel by Mordehai Milgrom using the modified Newtonian dynamics (MOND) theory that he first developed nearly 30 years ago. By showing that MOND can be used to explain the properties of complicated elliptical galaxies – as well the much simpler spiral galaxies – Milgrom argues that MOND offers a viable alternative to dark matter when it comes to explaining the bizarre properties of galaxies.

Dark matter was proposed in 1933 to explain why galaxies in certain clusters move faster than would be possible if they contained only the "baryonic" matter that we can see. A few decades later, similar behaviour was detected in individual galaxies, whereby the rotational velocity of the outermost stars was found not to "drop off" as a function of distance but instead remain flat. These observations directly contradicted Newtonian gravity, which should hold true in extragalactic regions just as it does on Earth and in the solar system. But by assuming there are "haloes" of invisible matter in and around galactic structures, Newton's familiar inverse square law is restored.

Since it was first invoked to explain these galactic irregularities, physicists have tried to make direct measurements on dark matter to try to work out exactly what it is – with very little success. As a result, there are some researchers who do not believe that dark matter exists and have proposed alternative explanations for the strange behaviour of galaxies.

Spectacular success

Now a new analysis suggests that one alternative theory called MOND describes the properties of two elliptical galaxies just as well as dark matter. MOND was originally formulated to describe spiral galaxies and has had spectacular success in predicting certain properties of these structures. Its extension to cover elliptical galaxies could strengthen the arguments in favour of this alternative theory. This is because elliptical galaxies are predicted to have formed by a different process from spiral galaxies and their properties are much more difficult to calculate.

MOND was first proposed in 1983 by the astrophysicist Mordehai Milgrom of the Weizman institute in Israel. The basic premise of the theory is that at extremely small accelerations of less than 10–10 m s–2 Newton's second law does not hold. Instead, Milgorm modified Newton's formula so that under certain circumstances the gravitational force between two bodies decays more gently than the inverse square of the distance between them.

Predictably, a theory that advocates changing Newton's laws is destined to meet with widespread scepticism, and MOND is no exception. Nevertheless, it also has undeniable attractions, such as the ease with which it makes testable predictions and the fact that it does not rely on an as-yet unseen dark matter. And, since a version of MOND consistent with Einstein's general theory of relativity was derived in 2004 by Jacob Bekenstein of the Hebrew University of Jerusalem, the wider physics community has begun to take notice.

No coincidence

In the new research, Milgrom analyses the hydrostatics of a spherical envelope of hot, X-ray emitting gas in two elliptical galaxies and shows the predictions of MOND are equally valid in these. This is important, Milgrom argues, because elliptical galaxies are thought to have evolved in a completely different way from spiral galaxies and other disc galaxies – they are thought to be formed by the collision and merging of two other galaxies. MOND's success, he argues, means that its predictive accuracy cannot simply be a coincidence and that it must hint at a deeper underlying truth.

He also suggests that the fact that the same mathematical law can be used to predict the rotation speeds of two different types of galaxies formed in two different ways significantly undermines the dark-matter hypothesis. "In the dark-matter picture" he says, "The galaxies we see today are the end result of very complicated and very haphazard formation processes. You start with small galaxies – they merge, they collide – there are explosions in the galaxies and so on and so forth. During this stormy evolution the dark matter and the normal matter are subject to these processes in very different ways and so you really do not expect to see any real correlations between the dark matter and the normal matter. This is a very weak point of the dark-matter picture."

Particle astrophysicist and dark-matter expert Dan Hooper of Fermilab in the US, argues that MOND will not win over sceptics by showing its applicability to galaxies, even if those galaxies are of types that have not been previously tested. "I have found it to be the case for quite some time now that MOND does a very good job of explaining the dynamics of galaxies," he says. "And this paper is yet another example of where MOND succeeds at the galactic scale. Where MOND fails is on larger scales such as in clusters of galaxies and on even larger cosmological scales." He cites the anisotropy of the cosmic-microwave background as one example of this.

 

لينك اصلي مقاله

Dark-matter hope fades in microwave haze

The latest results from the Planck space telescope have confirmed the presence of a microwave haze at the centre of the Milky Way. However, the haze appears to be more elongated than originally thought, which casts doubt over previous claims that annihilating dark matter is the cause of the emissions. A roughly spherical haze of radiation at the heart of our galaxy was identified as far back as 2004 by the Wilkinson Microwave Anisotropy Probe (WMAP). Since then, some astrophysicists have suggested that this haze is produced by annihilating dark-matter particles.

However, some researchers have questioned whether the haze actually exists at all, suggesting that it could be an artefact of how the WMAP data were analysed. Doubts were raised as to whether WMAP was capable of picking out this weak signal buried deep in emissions from galactic dust, the cosmic microwave background (CMB) and other noise from hectic regions of the galaxy.

It is definitely there

The argument now seems to have been settled by the latest results from Planck, a European Space Agency mission launched in May 2009. "Crudely speaking, we agree with all the WMAP results," explains Krzysztof Gorski of NASA's Jet Propulsion Laboratory in California, who is a member of the Planck team. "Planck is more sensitive, and has a greater frequency range, taking us into a realm that WMAP couldn't even see," he told physicsworld.com. One of the telescope's main objectives is to accurately map fluctuations in the CMB, so it is well suited to subtracting that radiation to reveal the haze.

With the presence of the haze independently verified, focus has returned to determining its origin. After its original discovery, some researchers, including Dan Hooper of Fermilab near Chicago, US, argued that annihilating dark matter could explain the galactic haze. Dark matter has long been thought to bind galaxies together, but detecting it directly has remained elusive. In Hooper's mechanism, dark-matter particles annihilate to produce conventional electrons and positrons. These particles then spiral around the Milky Way's magnetic field to produce the radiation we see as the microwave haze.

However, as well as confirming its existence, Planck was also able to reveal details of the shape of the haze. "The new results seem to suggest that the haze is elongated rather than spherical [as previously thought]," explains Hooper, who was not involved in the Planck research. "Simulations suggest that we would expect to find dark-matter halos that are roughly spherically symmetric," he adds. There might still be room for a partial dark-matter explanation, however. "Our opinion is that no single current model explains the haze's origin," admits Gorski. So Hooper is not giving up. "It still smells like dark matter to me," he says.

Related to Fermi bubbles?

The Planck observations also revealed a sharp southern edge to the haze. This implies that the formation mechanism is sporadic – if it were continuous, then the edges of the haze would appear diffuse. "The sharpness also implies that the haze might be related to the Fermi bubbles," says Hooper. The Fermi bubbles are two giant, gamma-ray-emitting structures extending 25,000 light-years above and below the centre of the galaxy. Spotted by the Fermi space telescope in November 2010, these bubbles also have sharp, defined edges pointing towards a rapid release of energy as their cause, rather than a continuous, steady process.

It is possible, then, that the two phenomena have a common origin. "There may be some mechanism crossover between the haze and the bubbles," says Andrew Pontzen, a theoretical cosmologist at the University of Oxford in the UK. "The next step would be to see exactly how much overlap there is in the data," he adds. Any areas where the two phenomena do not overlap still leaves the door open for dark matter to play a part. "Maybe the cause [of the haze] is a mixture of dark-matter annihilation and other mechanisms," Hooper adds.

Whichever explanation turns out to be correct, the Planck results have focused the argument. "Observationally, this is a great step forward," Pontzen says. "However, the centre of the galaxy remains an intrinsically complicated place where a plethora of strange things are going on," he adds. In the end, it might take Planck's successors to settle the debate.

 

لینک مقاله منتشر شده

کارگاه یک روزه اپتیک