داغ‌ترین دمایی که تاکنون اندازه‌گیری شده است، منفی‌ست

فیزیک‌دانان ذراتِ موجود در یک نمونه‌ی گازی را وادار کرده‌اند که بر خلافِ داشتنِ مقادیرِ بسیار زیادی از انرژی، هم‌چنان مقید باقی بمانند. به این ترتیب شمارِ ذراتِ موجود در ترازهای بالاترِ انرژی بیش از شمارِ آن‌ها در ترازهای پایین‌تر است و این به این معناست که دمای این نمونه‌ی گازی در مقیاسِ کلوین، زیرِ صفرِ مطلق است.

گرچه متناقض به نظر می‌آید، اما پژوهش‌گران با سردکردنِ یک نمونه‌ی گازی و رساندنِ دمای آن به مقادیرِ منفی در مقیاسِ کلوین، توانسته‌اند بالاترین دمایی را که تابه‌حال اندازه‌گیری شده است، ثبت کنند. این پژوهش که چهارم ژانویه در مجله‌ی Science به چاپ رسیده به فیزیک‌دانان کمک می‌کند که در موردِ پدیده‌های کوانتومی و یا حتی شکلِ ناشناخته‌ای از انرژی که بر کیهان حکم‌فرمایی می‌کند (انرژیِ تاریک)، بیش‌تر بیاموزند. منفی‌بودنِ دمای یک سامانه در مقیاسِ کلوین نشان‌دهنده‌ی حالتی‌ست که در آن، شمارِ ذراتِ موجود در حالت‌هایی با انرژیِ بالاتر، بیش‌تر از ذراتی‌ست که در حالت‌هایی با انرژیِ پایین‌تر هستند.

همان‌گونه که آخیم رُش (Achim Rosch)، فیزیک‌دانی از دانش‌گاهِ کُلنِ آلمان که در این کارِ پژوهشی هم‌کاری نداشته توضیح می‌دهد: "ما همواره به دماهایی با اندازه‌ی مثبت عادت داریم، درحالی‌که هیچ مانعی برای منفی‌بودنِ دما وجود ندارد. انجامِ کارهای نامعمول همواره جذاب است". معمولا دما را به عنوانِ سنجه‌ای برای اندازه‌گیریِ میانگینِ انرژیِ ذراتِ موجود در یک نمونه تعریف می‌کنیم. به عنوانِ مثال، انرژیِ مولکول‌های آب که در دیگی جوشان قرار دارند به طورِ میانگین، بیش‌تر از انرژیِ مولکول‌های آبی راکد است که در یک مکعبِ یخی قرار دارد. اما برای دانش‌مندانی که مواد را در مقیاس‌های کوانتومی بررسی می‌کنند، دما به عنوانِ سنجه‌ای برای چگونگیِ توزیعِ انرژی میانِ ذراتِ موجود در یک نمونه تعریف می‌شود. درست در دمایی کمی بالاتر از صفرِ مطلق (صفرِ کلوین یا 273- درجه‌ی سلسیوس) تقریبا همه‌ی ذرات موجود در یک نمونه، انرژی‌شان بسیار نزدیک به صفر است و ذرات تنها دارای جنبش‌های بسیار اندکی هستند. اما با افزایشِ دما، تفاوتِ میانِ انرژیِ ذراتِ موجود در نمونه نیز افزایش می‌یابد، برخی از ذرات هم‌چنان انرژیِ بسیار اندکی دارند اما ذراتِ دیگرِ نمونه در حالت‌هایی با انرژیِ بیش‌تر قرار می‌گیرند.

اُلریش اِشنایدِر (Ulrich Schneider) یکی از فیزیک‌دانانِ دانش‌گاهِ لودویک ماکسی‌میلیان واقع در مونیخ است که برای انجامِ کاری شگرف، طرحی در دست دارد. او با فریب‌دادنِ ذراتِ موجود در یک نمونه، آن‌ها را وادار کرده که با وجودِ داشتنِ مقادیرِ بسیار زیادی از انرژی، هم‌چنان در حالت‌های مقید باقی بمانند. به بیانِ دیگر، این پژوهش‌گر به جای آن‌که با افزایشِ انرژی، ذراتی که دارای کمینه مقدارِ انرژی هستند (حالتی با دمای صفرِ مطلق) را به حالت‌هایی با انرژیِ بیش‌تر بفرستد، ذراتی با بیشینه مقدارِ انرژی را به میانِ حالت‌هایی با انرژیِ کم‌تر می‌کشاند. بنا به تعریف، چنین نمونه‌ای در مقیاسِ کلوین دارای دمای منفی خواهد بود.

اعضای این گروهِ پژوهشی برای رسیدن به این هدف، ابتدا اتم‌های پتاسیم را تا دمای چند میلیاردیومِ درجه بالای صفرِ کلوین، سرد می‌کنند. سپس با به‌کارگیریِ چند لیزر و آهن‌ربا، اتم‌ها را وادار می‌کنند که به ترازی با انرژیِ بیش‌تر بروند. به این ترتیب Schneider و هم‌کارانش با ایجادِ انبوهی از ذرات که در ترازهایی با انرژیِ بالا نگه‌داشته شده‌اند، این نمونه‌ی گازی را به دمایی در حدودِ چند میلیاردیومِ درجه زیرِ صفر کلوین می‌رسانند. این دما در واقع دمایی زیرِ صفرِ کلوین نیست چراکه بر خلافِ مقیاسِ فارنهایت و سلسیوس (که منفی‌بودنِ دما در آن‌ها به معنیِ سردتر بودنِ سامانه است)، دمایی که در مقیاسِ کلوین منفی‌ست اطلاعاتی درباره‌ی ترازهای انرژیِ ذراتِ موجود در یک سامانه به دست می‌دهد. در واقع نمونه‌ی گازی که توسطِ این گروهِ پژوهشی آماده‌سازی شده، بسیار داغ است چراکه بیش‌ترِ ذراتِ این سامانه در ترازهایی با انرژیِ بالا قرار گرفته‌اند. همان‌گونه که Schneider توضیح می‌دهد: "گرما هم‌واره از جسمِ گرم‌تر به سوی جسمِ سردتر شارش می‌یابد. در این آزمایش نیز شارشِ گرما هم‌واره از نمونه‌ی گازی به سوی محیطِ اطراف است. در حقیقت این نمونه‌ی گازی از هرچه در اطرافِ آن می‌شناسیم، گرم‌تر است".

بر خلافِ آن‌چه تاکنون گفته شد، این آزمایش به‌خودیِ‌خود یک ترفندِ جالبِ فیزیکی نیست. چیزی که توجهِ دانش‌مندان را به بررسیِ مواد در دمای منفی جلب می‌کند، ویژگی‌های شگرفِ دیگری‌ست که این مواد از خود نشان می‌دهند. مولکول‌های موجود در یک نمونه‌ی گازیِ معمولی، هم‌واره در حالِ پخش شدن هستند و به دیواره‌های ظرفی که در آن قرار گرفته‌اند، نیرو وارد می‌کنند. اما یک نمونه‌ی گازی با دمای منفی، دارای فشارِ منفی نیز هست که به این معناست که مولکول‌های چنین گازی به جای آن‌که منبسط شوند، بیش‌تر تمایل دارند روی یک‌دیگر فروبریزند. یافتنِ یک نمونه‌ی گازی با فشارِ منفی ممکن است نقشِ مهمی را در حوزه‌ای دیگر از فیزیکِ کیهانِ پیرامون ما ایفا کند: کیهان‌شناسان بر این باورند که انرژیِ تاریک، پدیده‌ای اسرارآمیز که انبساطِ شتاب‌دارِ کیهان را سبب می‌شود، نیز دارای فشارِ منفی‌ست. Schneider می‌افزاید: "با انجامِ آزمایش‌های هرچه بیش‌تر درباره‌ی دمایِ منفی، که پدیده‌ای کوانتومی‌ست، می‌توان سرشتِ انرژیِ تاریکِ موجود در کیهان را هرچه بهتر شناسایی کرد".

لینک مقاله در وبلاگ

Pulsed lasers could make proton therapy more accessible

A table-top proton accelerator for medical therapy could be one step closer thanks to work done by physicists in Germany. The team's system is based on a compact Ti:sapphire laser, which fires ultrashort light pulses at a diamond-like foil to produce bunches of protons with energies of around 5 MeV. The team has shown that its device delivers radiation doses to biological cells that are similar to doses created by much larger conventional proton-therapy systems. The researchers say that the technique could also be used to study ultrafast processes in biology and chemistry.

Accurate delivery

Protons – and other heavier ions such as carbon – show great promise for radiation therapy because when fired into living tissue, they deposit most of their energy at a very specific depth that depends on their initial energy. This is unlike X-rays and electrons, which tend to deposit energy over much larger regions of tissue. As a result, protons can be used to destroy tumours while leaving surrounding healthy tissue unharmed. The downside of proton therapy is that it requires the use of a large and expensive accelerator and can only be done at about 30 facilities worldwide. With the aim of offering proton therapy to more people, medical physicists are looking at how compact lasers could be used to create smaller and less costly proton sources. The basic idea is to fire short, intense laser pulses at a thin target, which liberates protons or other ions and accelerates them over distances as small as a few microns. Researchers have already shown that table-top femtosecond lasers with pulse energies of several joules can create proton beams with energies of up to 40 MeV.

Biological effectiveness

But before laser-driven ion beams can be used on patients, it is necessary to study how the proton pulses interact with living cells. In, particular scientists must compare the effectiveness of ultrashort-pulsed ion beams with that of continuous beams from conventional accelerators. With this aim, Jan Wilkens from the Technical University of Munich and colleagues have used a high-power table-top laser to generate nanosecond proton bunches that deliver single-shot doses of up to seven gray to living cells. This is equivalent to a peak dose rate of 79 Gy/s over a 1 ns interval, and such doses are sufficient for radiation therapy.

System set-up

The researchers used the ATLAS laser – a table-top Ti:sapphire laser that delivers 30 fs pulses – at the Max Planck Institute of Quantum Optics near Munich. Laser pulses with 0.4 J energy were focused to a 3 μm spot, yielding a peak intensity of 8 × 1019 W/cm2. This beam was used to irradiate diamond-like carbon (DLC) foils with thicknesses of 20 and 40 nm.

"The nanometre foils enabled a hundred-fold higher [proton] luminosity as compared to [standard] micron-thick targets," explains Jörg Schreiber, from Ludwig Maximilian University of Munich, who was one of the team. "We have pioneered the application of nanometre DLC foils and it has paid off." The beamline included a miniature quadrupole doublet magnetic lens inserted behind the DLC foil to focus the protons at a distance of 1.2 m. A circular aperture is placed 810 mm from the target, in front of a dipole magnet that deflects the protons downwards. This avoids irradiation of the cells by X-rays created when the laser pulse slams into the target. The beamline is evacuated and to irradiate living cells, the proton bunch leaves the vacuum through a Kapton window and enters a customized cell holder.

Irradiating cancer cells

The researchers exposed single layers of human cervical cancer cells to protons generated in a single shot. The resulting dose distribution was measured using radiochromic film behind the cells. A microstructured grid on the cell holder enabled registration of the dose distribution with a spatial uncertainty of 21 μm. The team confirmed that cells were damaged by the protons using a chemical assay that detects the presence of broken strands of DNA.

Using these data, the team calculated the relative biological effectiveness (RBE) of the dose and found it to be similar to that of conventional proton beams at comparable energies. The researchers say that this work demonstrates the potential of small, high-repetition-rate lasers for creating intense pulse protons that are almost monoenergetic and contain relatively small amounts of background radiation.

Ultrafast studies

Beyond proton therapy, the researchers say that the proton source could be used for basic science: "The laser-driven beam could have impact as a tool in fast biological or chemical processes. Of special interest is the availability of other temporally synchronized laser-driven sources to perform pump probe experiments," they note. The team is now aiming to create beams with higher ion energies. "This requires more powerful lasers, which are currently under construction in our lab and elsewhere," Wilkens and Schreiber explain.

لینک مرجع

Hottest temperature ever measured is a negative one

Coaxing a gas to a negative temperature on the kelvin scale has produced, paradoxically, the hottest temperature ever measured. The study, published in the Jan. 4 Science, will help physicists learn about quantum phenomena and perhaps even the strange form of energy that dominates the universe. A negative kelvin temperature indicates that particles at high energies outnumber those at low energies.

“We are used to positive temperatures,” says Achim Rosch, a physicist at the University of Cologne in Germany who was not involved in the research. “But there’s nothing forbidden about negative temperatures. It’s always fascinating to do something unusual.” Temperature is commonly interpreted as a measure of the average energy of the particles in a sample. Each of the molecules buzzing around in a pot of boiling water, for example, has more energy on average than a sluggish water molecule within an ice cube.

But for scientists who study matter at quantum scales, temperature is better defined as the energy distribution of the particles in a sample. Just above absolute zero (0 kelvin, or -273° Celsius), almost all of the particles within a sample have energies very close to zero, with little variation. But as temperatures rise, the variation in energies widens — some particles still have very small energies, but others have more.

Physicist Ulrich Schneider at the Ludwig Maximilians University of Munich set out to do something unusual: He wanted to cajole the particles within a substance to be confined to a very high amount of energy. In other words, instead of having the particles start at a minimum energy (corresponding to absolute zero) and spreading out toward higher energies, he wanted to start at a maximum energy and spread toward lower energies. By definition, such a substance would have a negative kelvin temperature.

His team achieved that with potassium atoms chilled to a few billionths kelvin above absolute zero. Through the use of lasers and magnets, the team managed to get the atoms to jump to a high-energy state. By creating a cluster of particles exclusively at high energies, Schneider and his colleagues had a gas at a few billionths negative kelvin.  This temperature is technically not below absolute zero, because negative on the kelvin scale(unlike that on the Fahrenheit or Celsius scale) is a construct that simply indicates something about the energy state of the particles involved. In fact, the new creation is extremely hot because of the high energies of the particles. Heat travels from hot to cold, Schneider says, and heat will always flow away from this gas. “It’s actually hotter than everything we know,” he says.

Despite the semantics involved, this experiment isn’t merely a fun physics trick. Scientists are fascinated by negative-temperature substances because they have other strange properties. The molecules in a typical gas spread out and exert a force on the walls of their container. But a negative-temperature gas also has negative pressure, meaning the particles tend to cave in rather than expand. “It wants to collapse into a single point,” Schneider says. Negative pressure may be important in another part of the physics universe: Cosmologists believe that dark energy, the mysterious entity that is causing the universe to expand at an accelerating rate, also has negative pressure. Schneider suggests that experimenting with the quantum phenomenon of negative temperature could reveal the nature of dark energy throughout the cosmos.

لینک منبع

نگاهی به درون حفره‌های کهکشانی

هم‌گرایی گرانشی پدیده‌ای است که به علت خم شدن نور در عبور از نواحی پر جرم اتفاق می‌افتد. داده‌های اخیر نشان دادند که نواحی با جرم بسیار کم (مانند حفره‌های درون کهکشانی) هم می‌توانند سهم مهمی در هم‌گرایی نور داشته باشند.

جرم درون خوشه‌ی کهکشان‌ها باعث پیچش فضا-زمان اطراف خود می‌شود. این پدیده سبب می‌شود تا کهکشان‌های زمینه، روشن‌تر به نظر برسند و یا دچار اعوجاج شوند. گونه مشابه‌ای از  هم‌گرایی گرانشی (gravitational lensing) زمانی اتفاق می‌افتد که نور از درون حفره‌ای با چگالی کمتر از میانگین عبور می‌کند. یافته استاندارد پیش‌بینی می‌کند که این نواحی کم جرم٬ تاثیر کوچکی بر نور کهکشان‌ها دارند٬ اما محاسبات جدید در Physical Review Letters نشان داده که حفره کیهانی تاثیرات زیادی بر نور کهکشان‌ها می‌گذارد (آن‌ها را روشن‌تر می‌کند)٬ به طوری که سیگنال مربوط به هم‌گرایی استاندارد را تحت تاثیر قرار می‌دهد. این نتایج می‌تواند بر توصیف بررسی‌های نجومی بزرگ مقیاس تاثیر بگذارد.

 

منجم‌ها با اندازه‌گیری هم‌گرایی گرانشی٬ می‌توانند جرم جسم گرانشی را به‌دست ‌آورند و یا چگالی جرم را در یک مسیر مشخص تخمین بزنند. بیشترین علت این هم‌گرایی مربوط به نواحی با تمرکز بالای جرم بوده است٬ اما نور می‌تواند با عبور از حفره‌های کهکشان که تمرکز جرم در آن بسیار کم است نیز٬ تحت تاثیر قرار بگیرد. اندازه حفره‌ها‌ی بین کهکشانی بین ده تا صد سال نوری است٬ که جمعاً بیش از نیمی از حجم کیهان را اشغال می‌کنند. مدل‌های پیشین هم‌گرایی گرانشی٬ تنها جنبه‌ی خمیده شدن نور را تحت تاثیر حفره در نظر می‌گرفتند. که این پدیده باعث می‌شود تا جسم زمینه٬ کوچکتر (و تا حد کمی کم نورتر ) از مقدار واقعی به نظر آید.

زیستزو بولیکو (Krzysztof Bolejko) و هم‌کارانش از دانشگاه سیدنی در استرالیا  محاسبات دقیقی بر روی هم‌گرایی از حفره انجام دادند. در تجزیه تحلیل کامل نسبیتی٬ آن‌ها تاثیر افزایش طول موج را درنظر گرفتند. این پدیده به این علت اتفاق می‌افتد که حفره‌ها در کل سریع تر از جهان منبسط می‌شوند. انتقال به سرخ اضافی که در داده‌ها در نظر گرفته شده٬ منجر به تخمین فاصله‌ی اجسامی شده است که نزدیک به نواحی دور حفره قرار دارند. بنابراین آن‌ها روشن‌تر از حد انتظار به نظر می‌رسند. نویسندگان این مقاله فکر می‌کنند که تأثیرات حفره باعث می‌شود تا بتوان برخی از ناهمسانی‌های آماری را در یافته‌های مربوط ابرنواختر توضیح داد.

لینک منبع

لینک مرجع مقاله

Proteins boost quantum coherence in bacteria

A new theory of how plant photosynthesis involves quantum coherence has been suggested by physicists in the UK, Germany and Spain. This latest research is based on the study of organisms that live deep under the sea yet are able to convert sunlight into energy. The study suggests that molecular vibrations do not destroy the coherence – as previously thought – but rather perpetuate and even regenerate coherence. The discovery provides a better understanding of how as much as 99% of the energy of light absorbed by photosynthesis cells is successfully transferred to locations in the cells where electric energy is converted to chemical energy. The work opens up the possibility of using nature-inspired designs in quantum devices.

Until recently, living systems were thought to be "too wet and warm" to rely on delicate quantum properties such as entanglement and coherence. The problem is that these properties decay rapidly via random interactions with things in the outside world, such as vibrating molecules. However, over the past decade physicists have begun to suspect that quantum properties play important roles in biochemical processes – including photosynthesis. This latest work was done by Alex Chin (now at Cambridge University) and colleagues at the Institute of Theoretical Physics in Ulm and the Technical University of Cartagena. The team looked at organisms called green sulphur bacteria that live 2000 m below the ocean surface. There is so little sunlight down there that the bacteria cannot afford to lose a single photon – indeed, almost 100% of the light they absorb is turned into food.

Excited states

When sunlight hits the surface of the plant, energy is transferred via chains of pigments to a reaction centre, where it is converted into chemical energy. Those pigments are held in place by proteins, which together create pigment–protein complexes, or PPCs. The PPCs effectively act as corridors and the energy itself travels in the form of molecular excited states, or molecular excitons. These excitons are able to move along the PPC by hopping from one molecule to the next.

In 2007 Graham Fleming and colleagues in the US showed that these excitons exhibit quantum coherence, which means that the excitons may exist simultaneously in a superposition of several quantum states with varying probabilities. Coherence also allows the exciton to explore multiple pathways to the reaction centre simultaneously, ultimately choosing the fastest, most efficient option. As is demonstrated in man-made solar cells (which also rely on excitons), the longer this trip takes, the more likely it is that the energy will dissipate before it reaches its destination.

Optimizing function

The presence of quantum effects in photosynthesis surprised both physicists and biologists, and left them wondering how a fragile quantum state could survive in a living organism. More specifically, research groups found that the coherenent states exist for 100-times longer than the coherence time of the energy states of an exciton. Something was helping these wave states survive long enough to ensure the safe passage of nearly 100% of the photon energy that the organisms absorbed.

This latest research suggests that the answer lies in the proteins in the PPCs, which provide structural support for the pigment molecules. The new calculations reveal that these proteins are more active participants in the transport system than was previously thought. The natural vibration frequencies of the proteins resonate with the exciton waves, and like a parent pushing a child on a swing, the protein structures keep the excitons oscillating without dampening. In fact, the exciton may pass its vibration into the protein structures, which then return it to the exciton, thus restoring its coherence. "People have not viewed this protein structure as something that actively helps quantum phenomenon to take place in biological systems," says team member Martin Plenio. "This is really a new way of thinking about things."

Definitely not noise

The team's conclusions come from precise analysis of the protein vibrations, using data from Markus Wendling and colleagues in the Netherlands, who in 2000 examined the PPC structures from green sulphur bacteria. Previous efforts to study the protein vibrations used rougher approximations and usually concluded that the vibrations were noise.

"The main difference in terms of the paradigm for doing this simulation was to not separate the system into the exciton and the environment, but to treat them all together as one large many-body system," says Chin. "We took a completely holistic approach. This makes it very complicated in terms of variables and things that one has to keep track of, which means that computationally it is very tough."

Understanding these protein structures could assist in building similar structures in quantum devices. If similar structures are used in the conversion of electrical energy to chemical energy, it could shed light on how to mimic photosynthesis's high efficiency rates in man-made solar cells.

A good hypothesis

Greg Scholes of the University of Toronto in Canada praises the detailed analysis conducted by the team, and says the conclusions "fit with some of the pieces of the puzzle that have been emerging in more recent experiments".  While Scholes believes the analysis is "sufficient proof of the idea in principle", he says direct experiments will need to be done to confirm the conclusions. "From that perspective this work really contributes something important. Because it gives us a hypothesis, [and now] we can go and test it," he says.

طبقه‌بندی وول خوردن‌های پروتئینی

تغییر شکل پروتئین‌ها که برای پیش‌برد فرآیندهای شیمیایی ضروری است به دو شکل ارتعاشات کشسان و تغییرات صورتبندی صورت می گیرد. تشخیص این دو نوع تغییر اهمیت ویژه‌ای در درک عملکرد پروتئین‌ها در بدن موجودات زنده ایفا می‌کند. محققان آزمایشگاه ملی اوک ریج آمریکا به تازگی روش جدیدی را برای تشخیص ارتعاشات کشسان و تغییرات صورتبندی از یکدیگر معرفی کرده‌اند.

پروتئین‌ها برای این که به درستی کار کنند، به تغییرات شکل‌شان متکی هستند. بنابراین دانشمندان به تغییرات کوچک در ساختار پروتئین‌ها توجهی جدی دارند، هر چند که تمام این «تکان‌ها» مانند هم نیستند. مطالعه جدیدی که آزمایش‌های پراکندگی نوترون و نور را با شبیه‌سازی دینامیک مولکولی تلفیق کرده است، نشان می‌دهد که چگونه می‌توان با استفاده از اندازه‌گیری انعطاف‌پذیری پروتئین‌ها، تفاوت میان ارتعاشات کشسان و تغییرات صورتبندی (conformational) واقعی را تشخیص داد. نتایج این مطالعه که در فیزیکال ریویو لترز ارائه شده است، رفتارهای خاصی از پروتئین‌ها را توضیح می‌دهد، از جمله اینکه چرا انعطاف‌پذیری پروتئین‌ها گاهی به سرعت با دما افزایش می‌یابد.

 

برای پیش‌برد فرآیندهای شیمیایی، پروتئین‌ها اغلب مجبورند که به شکل فیزیکی (مثل کلید) با دیگر مولکول‌ها چفت شوند. پروتئين‌ها می‌توانند با وول خوردن و لرزیدن سر جای خودشان، دچار تغییرات صورتبندی شوند که در آن اتم‌های درون مولکول از یک سد انرژی پتانسیل به سد انرژی دیگر می‌جهند. از طرف دیگر، انعطاف‌پذیری پروتئین‌ها نیز از اتم‌هایی ناشی می‌شود که به شکل کشسان درون یک سد پتانسیل افت‌ و‌ خیز می‌کنند. تغییرات کشسان و صورتبندی باید به شکل متفاوتی به دما و آب‌پوشی مولکول وابسته باشند، اما مطالعات قبلی درباره انعطاف‌پذیری پروتئین‌ها معمولا این دو سهم را جدا نکرده‌اند.

به تازگی لیانگ هونگ (Liang Hong) از آزمایشگاه ملی اوک ریج آمریکا و همکارانش راهی موثر برای جداسازی حرکت‌های کشسان و صورتبندی از یکدیگر معرفی نموده‌اند. آن‌ها در ابتدا انعطاف پذیری را – همان‌طور که اغلب انجام می‌شود – با استفاده از پراکندگی نوترون‌های ناهمدوس اندازه‌گیری نموده و جابجایی‌های اتمی (عمدتا اتم‌های هیدروژن) درون یک پروتئين خاص را ثبت کردند. سپس با مقایسه این داده‌های جابجایی با شبیه‌سازی دینامیک مولکولی گروه هونگ دریافتند که افت و خیزهای کشسان اتم‌های منفرد را می‌توان از ارتعاشات نوسانی کل مولکول که آن‌ را با آزمایش‌های پراکندگی نور اندازه‌گیری کرده بودند استنتاج نمود. این پژوهشگران با جداسازی بخش کشسان در واقع نشان دادند که انعطاف‌پذیری بالا در دمای اتاق اصولا ناشی از آهنگ بیشتر تغییرات صورتبندی آن است.

لینک منبع

Physicist homes in on universe's earliest magnetic fields

Scientists have long wondered where the observed magnetization of the interstellar medium came from, given that the fully ionized gas of the early universe contained no magnetic particles. According to new research by an astrophysicist in Germany, the answer lies in magnetic fluctuations within this plasma. Although these fluctuations initially summed to zero, he calculates, they would have left a positive excess of field once compressed by energetic phenomena such as supernovae explosions.

Permanent magnetism is a property of only a few materials, such as iron, in which the spins of individual electrons naturally line up in the same direction and create a residual magnetic field. In the early universe, before iron and other magnetic materials had been created inside stars, permanent magnetism did not exist. Nevertheless, the proto-interstellar medium, a plasma consisting of a few light nuclei along with free protons and electrons and which formed when the universe was less than a billion years old, did have a non-zero magnetic field.

Magnetic seeds

Astrophysicists believe that the explosive collapse of massive stars known as supernovae or the streams of charged particles referred to as galactic winds could have provided the energy needed to compress small and disordered, or "seed", magnetic fields so that they became unidirectional and as strong as the fields observed in the interstellar medium – that is, having an energy density roughly equal to that caused by the medium's thermal pressure. The question is: where did these seed fields come from?

To answer this question, Reinhard Schlickeiser of Ruhr University in Bochum considered the proto-interstellar plasma shortly after it came into being – an era known as "reionization" when something, probably the light from the first stars, provided the energy needed to break up the previously neutral gas that existed in the universe. The protons and electrons inside the plasma would have moved around continuously, simply by virtue of existing at a finite temperature. And, like any charged particles in random motion, they would have created random magnetic fields – which would have cancelled each other out. Nevertheless, it was the finite variance of the resulting magnetic "fluctuations", says Schlickeiser, that subsequently led to the creation of a permanent magnetism across the universe.

To work out the field-strength variance of the fluctuations, Schlickeiser used a theory he developed in 2012 with Peter Yoon of the University of Maryland. The fluctuations are "aperiodic", which means that, unlike the variations in magnetic and electric fields that give rise to electromagnetic radiation, they do not propagate as a wave. Indeed, their wavelength – the spatial distance over which the fluctuations occur – and their frequency – dictating how long these fluctuations last – are uncorrelated, in contrast to light, for which the values of wavelength and frequency are tied to one another via the wave's velocity.

Much weaker than a fridge magnet

Schlickeiser summed over all possible wavelengths and frequencies for the magnetic fluctuations in a gas at 10,000 K, which would have been roughly the temperature of the proto-interstellar medium at the time of reionization. The calculation revealed field strengths of about 10–12 G inside very early-stage galaxies and around 10–21 G in the void surrounding the galaxies. These values compare with the roughly 0.5 G of the Earth's magnetic field and the 100 G typical of a strong refrigerator magnet.

Schlickeiser points out that he is not the first person to put forward a seed mechanism for the interstellar magnetic field. Indeed, as far back as 1950 the German astronomer Ludwig Biermann proposed that the centrifugal force generated in a rotating plasma cloud will separate out heavier protons from lighter electrons, thereby creating a separation of charge that leads to tiny electric and magnetic fields. According to Schlickeiser, however, this scheme suffers from a lack of suitable rotating objects, meaning that it could only ever generate the magnetic fields in a small portion of the interstellar medium.

Observational evidence needed

Schlickeiser's next step is to find observational evidence to back up his idea. One option, he says, would be to look at the cosmic microwave background, the very faint long-wavelength radiation that fills the universe and which was emitted about 400,000 years after the Big Bang, when electrons and protons had cooled to the extent that they could combine via mutual attraction and leave photons to propagate freely through space. The idea would be to measure variations in the polarization of this radiation, which could be done using data from the European Space Agency's Planck satellite, given that magnetic fields rotate the plane of polarization of electromagnetic waves. "It is not clear at the moment whether these fluctuations would have measureable effects on the background radiation," he says. "But I think it would be worth finding out."

Massimo Stiavelli of the Space Telescope Science Institute in Maryland is positive about the latest work, arguing that "the mechanism described could indeed provide the seeds to primordial magnetic fields". And he suggests an alternative line of evidence, from before reionization – that any magnetic fluctuations would have tended to fragment the universe's second generation of stars as they formed. "Finding somewhere in the local universe a small-mass star with a magnetic field and primordial chemical composition would provide evidence that a mechanism like the one described was at play," he says.

Muon-capture measurement backs QCD prediction

The rate at which protons capture muons has been accurately measured for the first time by the MuCap collaboration at the Paul Scherrer Institute (PSI) in Switzerland. This process, which can be thought of as beta decay in reverse, results in the formation of a neutron and a neutrino. The team has also determined a dimensionless factor that influences the rate of muon capture, which was found to be in excellent agreement with theoretical predictions that are based on very complex calculations.

Muons are cousins of the electron that are around 200 times heavier. Beta decays demonstrate the weak nuclear force in which a neutron gets converted into a proton by emitting an electron and a neutrino. Now, replace the electron with the heavier muon and run the process backwards: a proton captures a muon and transforms into a neutron while emitting a neutrino. This process – known as ordinary muon capture (OMC) – is crucial to understanding the weak interaction involving protons.

The proton and the weak force

The proton's interaction with the weak force is explained by the chiral perturbation theory (ChPT) – an approximation of quantum chromodynamics (QCD) applicable at low particle energies. At such energies, the weak interaction inside a proton is affected by the presence of the strong force. The strength of this weak interaction is determined by certain coupling constants, which must be experimentally established.

"Essentially, these constants represent the basic properties of the proton, and describe the fact that it is not point-like but has a complex internal structure," says Peter Kammel from the University of Washington, Seattle, one of the physicists involved in this research. Three of these dimensionless parameters have been previously measured, but attempts at measuring the fourth, known as "pseudoscalar coupling", provided conflicting results, until now. "Of course," continues Kammel, "the pseudoscalar coupling constant could be calculated quite precisely by using chiral perturbation theory, which predicts a value of 8.26 ± 0.23." In order to measure its value, the physicists had to first determine with a high accuracy the rates at which muon capture takes place.

Capture versus decay

The muons used in the study were produced by smashing protons into carbon targets at an energy of 590 MeV. These collisions produce both positive and negative pi-mesons (or pions), which promptly decay into positive and negative muons, respectively. Muons with an energy of 5.5 MeV are then fired into a MuCap time projection chamber (TPC), which contains ultrapure hydrogen gas at 10 bar.

The negative muons supplant the electrons that orbit the hydrogen nuclei to form a proton–muon bound state, while the positive muons remain free. A small fraction of the bound muons – around 0.16% – will get captured by the proton and disappear, as they form a neutron and a neutrino. All of the remaining muons, both positive and negative, will decay after about two millionths of a second into electrons and neutrinos. The decay times were calculated precisely by measuring the time between the muons entering the TPC and the electrons from the decay exiting the chamber. These decay times were then compared to the well-known free muon decay rate and the difference between the two determines the elusive muon-proton capture rate.

A total of around 12 billion decay events involving negative muons were detected, corresponding to 30 TB of raw data that were analysed. The analysis was performed blind to prevent any unintentional bias from distorting the results and, following the unblinding, the measured muon-capture rate was found to be 714.9 ± 5.4 (stat) ± 5.1 (syst) s–1.

Confirming predictions

Using this figure, the team could calculate the value of the pseudoscalar coupling constant, which worked out to be 8.06 ± 0.48 ± 0.28, consistent with the predictions of ChPT. Although experimental methods to determine the pseudoscalar coupling constant started in the 1960s, it was not until the MuCap experiment that the objective was achieved.

"The nucleon weak-interaction coupling constants played a significant role in understanding the weak and strong interactions," continues Kammel. "The modern description of the process we have investigated is based on ideas proposed by Yoichiro Nambu, for which he won the Nobel Prize for Physics in 2008." The approximate methods of calculation presented by ChPT agree very well with the experimental result, confirming yet another prediction of the Standard Model of particle physics.

شکل‌ دهی میدان‌های مغناطیسی

طرح ارائه شده برای یک پوسته استوانه‌ای با ویژگی‌های مغناطیسی غیرعادی راهی برای متمرکز کردن انرژی میدان مغناطیسی نشان می‌دهد.

 همان‌طور که باریکه نور هنگام برخورد با سطح آب خم می‌شود، خطوط میدان مغناطیسی نیز هنگام نفوذ در یک شی‌ء دارای خواص مغناطیسی، تغییر شکل می‌دهند. گروهی از پژوهشگران در مجله Physical Review Letters گزارشی را منتشر کرده‌اند مبنی بر آنکه از این حقیقت ابتدایی استفاده کرده‌اند و دستگاهی استوانه‌ای را پیشنهاد کرده‌اند که می‌تواند به یک میدان مغناطیسی شکل دهد و انرژی آن را در یک ناحیه از فضا متمرکز کند. این دستگاه می‌تواند حساسیت آشکارساز و یا انتقال‌ دهنده انرژی مغناطیسی را با افزایش بازده آن هنگام انتقال از یک مکان به مکان دیگر بالا ببرد.

 این روش که «اپتیک تبدیلی» نام دارد و حدود 15 سال پیش بنیان نهاده شده است، تبدیل به یک ابزار سودمند برای طراحی مواد جدید به منظور دستکاری نور شده است. شروع کار با یک پرتو نور است که در یک خط مستقیم از میان یک محیط یکنواخت عبور می‌کند. لازمه این روش تصور میزان فشردگی یا کشیدگی مورد نیاز محیط است، به گونه‌ای که خط مستقیم نور را تبدیل به مسیر پیچیده‌تری کند تا شکل مورد نظر بدست آید. بنابراین این «تبدیل» هندسی با کمک قوانین ریاضی دستورالعملی را برای تغییر فضایی ویژگی‌های الکترومغناطیسی منبع ارائه می‌دهد، همان‌گونه که یک محیط بدون تغییر، نور را باید در مسیر مشخصی خم ‌کند.

آلوارو سانچز و همکارانش در دانشگاه خودگردان بارسلونا این تفکر را در مورد میدان‌های مغناطیسی ایستایی بکار برده‌اند. آن‌ها می‌خواستند دستگاهی را طراحی کنند که بخشی از میدان مغناطیسی را در یک فضای کوچکتر فشرده کند تا چگالی انرژی آن را تقویت و آشکارسازی آن را آسان‌تر کنند. آن‌ها تصور کردند یک پوسته استوانه‌ای بسیار نازک و بی‌نهایت بلند را در این میدان مغناطیسی قرار داده‌اند. سپس با ثابت نگه داشتن قطر خارجی استوانه، آن‌ها تبدیلی را پیدا کردند که به پوسته ضخامت محدودی داده و به این ترتیب قطر داخلی را کاهش دهند. این تبدیل، میدان مغناطیسی درون استوانه را در حجم کوچکتری فشرده می‌کند و شدت آن را افزایش می‌دهد. اما از آنجا که پوسته مغناطیسی اصلی شامل هیچ میدان مغناطیسی نبود، این پوسته اضافی نیز پس از انتقال هم‌چنان عاری از هر انرژی میدان مغناطیسی باقی می‌ماند.  

جای تعجب نیست، پوسته تولید شده به این روش ویژگی‌های عجیب و غریبی دارد. میدان مغناطیسی در سطح خارجی باید بدون هیچ مانعی از میان پوسته عبور کرده و در سطح داخلی نمایان شود. برای یک کار برجسته نیاز است خواصی که نفوذپذیری مغناطیسی نامیده می‌شود، در جهت شعاعی نامحدود باشد. از طرف دیگر این نفوذپذیری در جهت محیط دایره باید صفر باشد چون هیچ میدانی به طور دایروی از میان پوسته عبور نمی‌کند. چنین ماده‌ای وجود ندارد اما سانچز و همکارانش می‌گویند که یک تقریب خوب از پوسته می‌تواند با جایگزین کردن آرایش ماده فرومغناطیس با آرایش ابررسانا ساخته شود. در حالت اول میدان به آسانی عبور می‌کند در حالی که حالت دوم مانع عبور میدان می‌شود. چنین دستگاهی هنگامی‌ که در یک میدان مغناطیسی با منبع خارجی قرار می‌گیرد، میدان عبوری را «برداشت» کرده و آن را درون پوسته متمرکز می‌کند.

این تیم سپس نشان داد که اگر یک منبع میدان مغناطیسی مانند آهنربای میله‌ای درون پوسته قرار گیرد، میدان بیرونی در مقایسه با سایر حالت‌ها، مقدار بیشتری خواهد داشت. سانچز توضیح می‌دهد که پوسته انرژی میدان مغناطیسی را چه در داخل و چه در خارج، از خود می‌راند و این شامل منبع نمی‌شود. چنین پوسته‌هایی ممکن است روشی برای بهبود بازده انتقال انرژی بی‌سیم را ارائه کنند. منبع اگر درون یک پوسته قرار گیرد، قدرت آن بیشتر می‌شود. و پوسته‌ای دیگر که در فاصله‌ای نه‌چندان دور از آن قرار دارد، می‌تواند بخشی از این میدان را درون خود متمرکز کند. میدان‌های مغناطیسی به شدت ایستا هیچ انتقال انرژی را دربرنمی‌گیرند اما این تیم نشان می‌دهد که انرژی یک میدان کمی متغیر، مانند آنچه که برای شارژ دستگاه‌ها به طور بی‌سیم استفاده می‌شود، می‌تواند درون پوسته دوم گیراندازی شود.

استیون کامر از دانشگاه دوک در دورهام می‌گوید: «این فیزیک قطعاً جدید و جالب توجه است.» او اشاره می‌کند که این روش در مقایسه با روش‌های موجود برای دستکاری میدان مغناطیسی با توجه به آنکه در آن از مواد مغناطیسی استفاده می‌شود، سودمند‌تر است. هم‌چنین او می‌افزاید مخصوصاً اگر ابررساناهای موجود در دمای اتاق توسعه پیدا کنند، ساخت وسایل مورد نیاز برای این کار آسان خواهد شد.

لینک منبع

نگاهی بر اولین لحظات جهان

مدل جدید کیهانشناسی، توصیف اولین دوره زمانی جهان را به چالش کشیده است؛ دوره ای که با مدل های جاری قابل دسترسی نیست. تورم کیهانی(Cosmological Inflation)، فرضیه ای که بنابر آن، جهان اولیه یک انبساط بی نهایت سریع را تجربه می کند، یک الگوی مورد پسند در کیهانشناسی مدرن است. این نظریه به شکل موفقیت آمیزی توضیح می دهد که چگونه افت و خیزهای کوانتومی خلاء، که در حدود 36-10 ثانیه پس از مهبانگ شروع می شود، می تواند به ساختار بزرگ-مقیاس جهان ما بیانجامد و منجر به پیش گویی هایی شود که با گستره وسیعی از مشاهدات کیهانشناسی تایید شده است. با این وجود کیهانشناسی تورمی نمی تواند نظریه ای نهایی برای جهان باشد. بر طبق این نظریه اگر جهان را در زمان به عقب برگردانیم، بسیار داغ و پر چگال می شود و در نتیجه قوانین فیزیک، که تورم بر پایه آن بنا شده است (نسبیت عام کلاسیکی)، شکست می خورد. در دوره زمانی مشهور به پلانک – که به یک ثانیه پلانک یعنی 43-10 ثانیه، بعد از مهبانگ می رسد، نیروی گرانشی به مقادیر قابل مقایسه با نیروهای اساسی دیگر رسیده و در این رژیم اثرات گرانش کوانتومی اهمیت می یابند و سبب  ایجاد شرایطی می شود که فراتر از فهم و درک سنتی از فضا و زمان است.
 

چه شرایطی مقدم بر تورم وجود داشته و تا چه حدی این شرایط پیش گویی های مدل تورمی را تحت تاثیر قرار می دهد؟ چنین سوالات اساسی کیهانشناسی بی پاسخ مانده اند، چون ما هنوز نظریه ای را سراغ نداریم  که با فیزیکِ پیش از نظریه تورم درگیر باشد و بتواند با ملایمت آن را به دوره تورمی متصل کند. در مجله فیزیکال ریویو لترز (PRL)، اگالوو و همکارانش در دانشگاه ایالتی پنسیلوانیا در پارک دانشگاهی، گرانش کوانتومی حلقوی (LQG) - نظریه ای که نامزدی برای گرانش کوانتومی  محسوب می شود– را اتخاذ کرده و از آن برای بسط سناریوی تورمی تا دوره پلانک مورد استفاده قرار داده اند. نویسندگان این مقاله همچنین دریافتند که ویژگی های فاز پیش تورمیِ در نظر گرفته شده، می تواند از یافته های کیهانشناختی قابل مشاهده نیز نتیجه گردد. بنابراین از این طریق  فرصتی برای آزمودن گرانش کوانتومی و سنجش پیش تورمی در مشاهدات نجومی آینده فراهم می آید.

در دهه 1980 گاث، لینده،آلبرشت، و اشتاینهارت نظریه تورم کیهانشناختی را برای توضیح دو معما در مدل مهبانگ کیهانشناسی پیشنهاد دادند: چرا جهان ما تقریباً تخت است (یعنی می تواند بعنوان یک فضای اقلیدسی با انحنای بسیار بسیار کوچک توصیف گردد) و چرا اینگونه به نظر می رسد که نواحی بسیار دور در جهان یک همبستگی غیرتصادفی در دماهایشان دارند. مدل تورمی پاسخ هایی را برای این سوالات فراهم می کند، با اصل قرار دادن اینکه جهان به سرعت با فاکتور حداقل 1078،در دوره زمانی اولیه تحول کیهانی، بسط یافته است. مدلهای بسیاری از تورم وجود دارد، اما به شکل کیفی همه آنها به فیزیک مشابهی منجر می گردد: در طی تورم، افت و خیزهای کوانتومی خلاء به افت و خیزهای چگالی منجر می شود که بعنوان بذرهای اولیه ساختار بزرگ مقیاس جهان کنونی عمل کرده اند. چون این افت و خیزهای چگالی همراه با افت و خیزهای دمایی هستند، نقش قابل مشاهده ای را روی تابش زمینه ریز-موج کیهانی (CMB) می گذارند- به محض اینکه انبساط جهان به فوتونها این امکان را بدهد که آزادانه در فضا حرکت کنند، تابش حرارتی آزاد می شود. پیش گویی های بعمل آمده توسط نظریه تورمی کاملاً با اندازه گیری های مدرن CMB تایید شده است.
برخلاف موفقیت های قابل ملاحظه ی نظریه تورمی، این نظریه مشکلات مختلفی نیز دارد. اولین آنها "مسئله تکینگی" است. در سال 2003 بورده و همکارانش نشان دادند که مدل تورمی پیش بینی می کند که جهان، در صورتی که از لحاظ زمانی به عقب باز گردد به یک نقطه چروکیده میشود- تکینگی مهبانگ- که در آن چگالی انرژی، انحنای فضا-زمان و دما بینهایت هستند. چون نسبیت عام تحت این شرایط فرو می ریزد نظریه تورمی با نزدیک شدن به نقطه تکینگی، نمی تواند معتبر باقی بماند. مشکل دیگرِ مدل تورمی مسئله ی "ترانس-پلانکیان" است: بر اساس این مدل مقیاس های کیهانشناختی جاری از ویژگی هایی نشأت می گیرند که کوچکتر از طول پلانک در آغاز تورم است. طول پلانک ( فاصله طی شده توسط نور در یک ثانیه پلانک) مقیاس طول طبیعی در دوره ی پلانک  است. اما در چنان مقیاس کوچکی، توصیف کلاسیکی فضا-زمان و گرانش نامعتبر است.
در چگالی و انرژی های بالای رژیم پیش تورمی، انتظار می رود اثرات نیروی گرانشی نیز نقش بازی کنند، تحت چنان شرایطی یک نظریه کوانتومی جدید، برای توصیف ریز-ساختار فضا-زمان  نیاز است؛ درست شبیه راهی که مکانیک کوانتومی ریز-ساختار ماده را توصیف می کند. گرانش کوانتومی حلقوی تلاشی است برای ترکیب مکانیک کوانتومی و نسبیت عام. در این نظریه هندسه ی پیوسته کلاسیکی فضا-زمانی با هندسه گسسته کوانتومی جایگزین می شود: می توان فضا را متشکل از "حلقه" های محدود ریز در نظر گرفت.
در طول دهه گذشته، به امید درک فیزیک دوره پلانک و حل مشکلات تکینگی مدلهای مختلفِ کیهانشناختی که شامل تورم می شوند، مدل LQG بکار گرفته شده است (نظریه ای که بعنوان کیهانشناسی کوانتومی حلقوی شناخته شده). اگرگسستگی فضا از چنان اهمیتی برخوردار نباشد، معادلات LQG، مدلهای کلاسیکی کیهانشناسی را بی نهایت خوب تخمین می زنند (شبیه پدیدار شدن مکانیک کلاسیک از مکانیک کوانتومی وقتی اثرات کوانتومی قابل چشم پوشی باشند). با این وجود تفاوت ها زمانی بارز می شوند که انحنای فضازمانی  اهمیت یابد. درمدل LQG ، جهان از تکینگی پدیدار نمی شود بلكه به جای  "مهبانگ" ، "جهش بزرگ" جایگزین می گردد يعني: شروع دوره انبساط به دنبال دوره ی انقباض فاز اوليه جهان. در کاري كه اگالوو و همکارانش انجام داده اند الگوی جهش LQG را پذیرفته شده و مشکل تکینگی مرتفع می گردد. ایده اصلی این گروه تحقیقاتی اين است که در فاز نزدیک به جهش، افت و خیزهای خلاء در طول یک هندسه فضا- زمانی غیر کلاسیکی و کوانتیده و در حجم کوچک تقريباَ 103 مكعب طول پلانک رخ می دهد. این افت و خیزها به عنوان بذرهای اولیه ساختار بزرگ-مقیاس جهان ما عمل می کنند. چون یک نظریه کامل گرانش کوانتومی هنوز قابل دسترسی نیست این محققان بایستی خودشان را به یک تقریب محدود می کردند: آنها افت و خیزها را با استفاده از نظریه میدان کوانتومی استاندارد برطرف می کنند ( همانند کیهانشناسی تورمی). آنان، مزیت نتایج اخیر را اخذ کرده و چگونگی نمو و رشد این افت و خیزها در فضا زمانی که با تکینگی LQG کوانتیده شده را مطالعه می کنند. چون الگوی تورمی از طریق LQG به دوره پلانک توسعه می یابد، ناسازگاری ترانس-پلانکیان نیز حل می شود، چنانچه LQG طولهای زیر-پلانک را به سختي مورد عمل قرار می دهد. بايستي توجه كرد كه سازگاری تحليل آنها به يك فرض مهم متكی است: افت و خیزهای خلاء کوانتومی، هندسه کوانتومی مورد نظر را تحت تاثیر قرار نمی دهد. نویسندگان این مقاله نتیجه می گیرند که برای کلاس بزرگی از شرایط اولیه ممکن، افت و خیزهای خلاء در آغاز تورم، شبیه آنچه در تورم استاندارد مورد بررسی قرار گرفته است، یک مسئله اساسی بشمار می رود. مدلِ بر پایه LQG ی آنها که به شکل شماتیک در شکل 1 نشان داده شده است، سازگار با پیشگویی های نظری تورمی است و آن را به شکل پیوسته ای به دوره پلانک تعميم مي دهد. با این وجود برای زیرمجموعه ای از چنان شرایط اولیه ای، حالت خلاء ای که LQG پیش بینی کرده به شکل ماهرانه ای متفاوت از آن چیزی است که در تورم فرض شده است. این موضوع به اثر قابل مشاهده بالقوه گرانش كوانتومی می انجامد که می تواند در آزمایشات دقیق CMB ظاهر شود؛ شبیه خواص آماری غیرگاوسی توزیع دمایی ( که اننظار می رود مجزای از پیش گویی های مدل های تورمی استاندارد باشد). چنانچه مشاهدات آینده پیش بینی های LQG را تایید کند دوره دور از دسترس جهان اولیه برای کیهانشناسی، قابل دسترس خواهد بود. با نگاه به جهان بسیار اولیه، زمانی که گرانش با دیگر نیروها هم تراز بوده، می توان کلیدی را برای یک نظریه کاملاً سازگار بدست آورد که نسبیت عام و مکانیک کوانتوم را متحد کند.
 

Mesons measure collision temperatures

A new method to accurately work out the temperature of a quark–gluon plasma has been developed by researchers at the Compact Muon Solenoid (CMS) collaboration at the Large Hadron Collider (LHC) at CERN. The technique involves looking at the behaviour of certain mesons in lead–lead collisions. While a similar result was reported last year, this latest effort is claimed to be much stronger and more statistically significant.

Cosmologists and particle physicists have long been keen to understand in what state matter existed in the primordial universe. Theories suggest that in the first few microseconds after the Big Bang, the basic building blocks of matter – quarks and gluons – were not bound within composite particles such as protons and neutrons, as they are today. Instead, they existed in a "quark–gluon plasma" – a sort of hot, dense soup-like medium in which the quarks and gluons (the carriers of the strong nuclear force) exist as free entities.

As the strong force does not diminish as the distance between quarks is increased, a very large amount of energy is necessary for the bound quarks to remain free. As a result, the QGP can only exist for very short times and at very high temperatures. When heavy particles such as lead nuclei collide in the Large Hadron Collider, a QGP could form in a number of ways. But it is not easy to tell if this extreme state of matter has formed, and it is even more difficult to measure it as it is expected to be at trillions of degrees.

Excited particles

One of the ways in which the CMS collaboration looks to see if a QGP has formed is to look at the effect its formation would have on other particles. One of the signs the researchers look out for is the sequential melting of excited states of the upsilon mesons (ϒ) – a bound state of a quark and its anti-quark – that emerges from heavy-ion collisions. It exists in three states, each of which have identical properties, but different binding energies. These are referred to as 1S, 2S and 3S. The more excited a state is, the less tightly bound are its quarks, meaning that 1S is the ground state, while 2S and 3S are loosely bound excited states that would melt more easily in the presence of a QGP.

"Here at the CMS, we can distinguish the signatures of the three states very clearly and distinctly, because of the excellent mass resolution of the CMS detector," explains Nuno Leonardo, from Purdue University, who is a member of the CMS collaboration and was one of the leaders of this experiment. The melting of these states is actually observed as a "suppression of states" – that is, fewer mesons are produced in lead–lead (Pb–Pb) collisions, compared with the number produced in proton–proton (p–p) collisions, which are known not to produce a QGP at all, making the p–p a reference system. For the three states, the fraction of ϒ(2S) and ϒ(3S) particles produced relative to ϒ(1S) in the Pb–Pb collisions should be less than the fraction for collisions between protons, where the suppression would not exist. "This is what we exploit to measure the temperature of the QGP," says Leonardo.

Foggy effects

Ian Shipsey, another team member and the chairperson elect of the CMS Collaboration Board, refers to the suppression as a "screening effect". He explains that the QGP screens the quark and its antiquark from their binding forces, making them fall apart even quicker than usual. "It is a bit like two people standing close to each other in a room...they form our ϒ particle. Even if there is a fog in the room, they can see each other as they are standing close," he explains. "But for the 2S and 3S states, they are further apart and so there is more fog between them and they cannot see each other. In this case, the fog is the QGP and the two people are the quark and its anti-quark, that now act as free particles and so do not form a ϒ particle anymore," he told physicsworld.com. Shipsey extends his fog analogy by saying that the p–p system has no fog at all, while for the Pb–Pb system the fog was expected, and now they have the evidence for it.

To determine the actual temperature of the plasma, the researchers use models that link binding energy with the temperature and the fact that the suppression of the states becomes more pronounced at higher plasma temperatures. "We know that the 3S is the least tightly bound and so if the temperature is at a certain value, the 3S will be the first to break," says Leonardo. Similarly, at consecutively higher temperatures, the 2S and then the 1S states would be expected to break.

Suppressed states

"With the current CMS data, we found that the 3S state is completely gone, the 2S is significantly suppressed but the 1S is very subtly suppressed," explains Shipsey. He says that the slight suppression of the 1S state may not be due to the QGP at all, but because "the amount of 1S observed depends in part on how much 2S and 3S are present as both of these states can disintegrate forming a 1S. If the 2S and 3S are suppressed the 1S is automatically suppressed". This means that the QGP formed is at an intermediate temperature, and not at the highest temperature theoretically expected. With the new data from 2012, the statistical significance of the researcher's findings has increased from 2.4σ to 5σ – the golden standard for a particle-physics discovery. To ensure the effects that they have observed are really a QGP being formed, the researchers plan to look at proton–lead (p–Pb) collision taking place at the LHC early next spring, which would serve as a middle ground. These collisions would also allow the team to ensure that the fog is produced by a QGP and not a phenomenon known as "cold nuclear effects" that could produce their own fog or screening effect. So the p–Pb system would provide a final qualification.

اسرار جهان نخستین در دل کهکشان‌های دوردست

بررسی کهکشان‌های اولیه کیهان که در زمان کمی نسبت به دیگر کهکشان‌ها پس از انفجار بزرگ بوجود آمده‌اند، این امکان را به دانشمندان میدهد تا پرسش‌های راجع به جهان اولیه را پاسخ دهد. جدیداً گروهی از این دانشمندان موفق شدند که حدود هفت عدد از این کهکشان‌ها را کشف کنند.

 

منجم‌ها با دقت در یافته‌های کیهان دور٬ هفت کهکشان را مشخص کردند که فاصله‌ی بسیار دور آن‌ها نشان می‌دهد که در کمتر از ۶۰۰ میلیون سال پس از انفجار بزرگ بوجود آمده‌اند. کشف تعداد زیادی از این کهکشان‌های کهن این فرصت را به پژوهش‌گران می‌دهد تا پرسش‌های اساسی راجع به جهان تازه متولد شده مطرح کنند. به طور مثال٬ این پرسش که٬ چه زمانی نور از ستاره‌ها و کهکشان‌های اولیه به بخش‌های اولیه تاریک کیهان نفوذ کرده است. به گفته‌ی آوی لوئب(Avi Loeb)٬ منجم از دانشگاه هاروارد که مشارکتی در این پروژه نداشته است،«این یک مطالعه‌ی علمی در ارتباط با مسئله پیدایش است».

این یافته‌ها حاصل تلاش تلسکوپ فضایی هابل است که در ماه‌های سپتامبر و آگوست بیش از صد ساعت مشاهده عمیق در بخشی از آسمان انجام داده است. این ناحیه در جنوب صورت فلکی فورنکس(Fornax) قرار دارد. این پروژه مشابه آن چیزی است که در سال 2009 انجام شد. در آن پروژه یک هدف خاص تحت یک نوردهی طولانی مدت قرار گرفته بود که عنوان این پروژه میدان ماورای عمیق هابل بود.

گروهی از منجم‌ها به سرپرستی ریچارد الیس از کلتک مجدداً نگاهی به این ناحیه انداختند٬ اما این بار با زمان نور دهی بیشتر و همچنین با بهره‌گیری از فیلتر‌های اضافه که به نور ضعیف قرمزی که از کهکشان‌‌های دور دست می‌آید حساس است. سرشماری‌های جدید در مجله‌ی Astrophysical Journal Letters آورده می‌شود. این سرشماری شامل هفت کهکشان در فاصله‌های بسیار دور است. یکی از این هفت‌عدد در بین بقیه رکورد شکن می‌باشد؛ این کهکشان تنها 380 میلیون سال پس از انفجار بزرگ دیده شده است.

از آن‌جایی که کیهان پس از انفجار بزرگ در حال منبسط شدن می‌باشد، 13.7 میلیارد سال پیش، نوری که از این اجسام دور ساطع شده تازه هم اکنون به زمین رسیده است.  این به این معنا است که این اجسام  در طول نخستین دوره رشد کیهان پدیدار شده‌اند. مسافت این اجسام دور معمولاً بر حسب معیار انتقال به سرخ بیان می‌شود. هر میزان که مسافت یک جسم بیشتر باشد انتقال به سرخ آن نیز بیشتر است.

هفت کهکشانی که توسط  الیس و همکارانش معرفی شده است همگی انتقال به سرخ بیشتر از 8.5 را دارند. یکی از این کهکشان‌ها به عنوان یک جسم کم نور ضعیف٬ پیش‌تر توسط منجم‌ها مشخص شده بود، به گفته ی الیس ممکن است انتقال به سرخ این کهکشان 11.9 باشد. دیگر نقشه برداری(یافته‌های) اخیر هابل٬ تعداد پراکنده کمی از کهکشان‌های دوردست را پیدا کرده است که امکان انتقال به سرخ برای آن‌ها در بازه 8.5 تا 10 است. در آن یافته‌ها تاثیرات گرانشی کهکشان‌هایی که در میانه راه قرار دارند بر روی اعوجاج و بزرگ نمایی نوری که از کهکشان پشت سر آن‌ها می‌آید٬ دخیل شده است. با توجه به آن یافته‌ها (که به CLASH شناخته می‌شود)، منجم‌ها در ماه نوامبر خبر از کشف کهکشانی دادند که انتقال به سرخ آن 10.8 است. این کهکشان  در صورت فلکی ‌Camelopardalis قرار دارد.

به گفته جمز دانلپ٬ منجم در دانشگاه ادینبرگ که با الیس مشغول به کار هست: «اگر بخواهیم به طور کلی صحبت کنیم نتایج آن‌ها (CLASH) با نتایج ما سازگاری دارد». طبق گفته الیس چیزی که بیشتر از هر رکورد شکنی‌ا‌ی اهمیت دارد این است که از سرشماری این کهکشان‌های دور بتوان حرفی در ارتباط با یکی از مهمترین رخدادهای اولیه کیهان، یعنی بازیونیزه شدن کیهانی (cosmic reionization) زد. باز یونیزه شدن زمانی اتفاق می‌افتد که نوری که از ستاره‌ها و کهکشان‌های نخستین  به بخش تاریک کیهان نفوذ می‌کند اتم‌های هیدروژن را به الکترون‌ها و پروتون‌های مجزا تبدیل کند که موجب شود کیهان برای نور معمولی شفاف شود.

این فرایند 200 میلیون سال بعد از انفجار بزرگ آغاز شده است. این در حالی است که منجم‌ها دقیقاً مطمئن نیستند که این فرایند چگونه آغاز شده است. در برخی نقاط٬ ستاره‌های نخستین مشتعل‌تر می‌شدند و خود را داخل کهکشان‌ها به دام می انداختند، اما تنها زمانی که ستاره‌ها و کهکشان‌های کافی حضور داشتند این امکان برای آن‌ها وجود داشت تا نواحی تاریک را نورانی کنند. پی بردن به این که چه تعداد از این کهکشان‌ها در آن‌جا حضور داشتند و یا این‌که در چه زمانی می‌زیسته‌اند به دانشمندان کمک می‌کند تا بفهمند که باز یونش به سرعت رخ داده است و یا در طی زمان صورت گرفته است.

یافته‌های جدید نشان می‌دهد که ممکن است به مرور زمان این اتفاق افتاده باشد. تعدادی از این کهکشان‌های نخستین٬  انتقال به سرخ‌های متفاوت دارند. این موضع این پیشنهاد را مطرح می‌کند که این اتفاق امکان دارد در طول زمان رخ داده باشد٬ درست همان زمانی که ستاره‌ها به صورت توده‌ایی چگال و داغ اطراف کیهان اولیه را در بر گرفته‌اند. «سپیده‌دم کیهانی شاید تنها رخداد مهیج  نباشد» این حرف را الیس در 21 دسامبر در نشست خبری گفت. روگیرد وینهورست منجم در دانشگاه ایالتی آریزونا٬ در تمپ می‌گوید که از اینکه در جستجو‌های جدید تنها هفت کهکشان پیدا شده، تعجب کرده است. او پیشنهاد می‌کند که ممکن است تعداد بیشتری از این کهکشان‌ها در داده‌ها وجود داشته باشند که به خاطر نور دیگر کهکشان‌ها و یا کهکشان‌ها و ستاره‌های نزدیک دیده نشوند.

برای پاسخ به هر پرسش تردیدآمیز باید تا سال 2018 که تلسکوپ فضایی جمز وب به آسمان پرتاب می‌شود صبر کرد. نقطه قوت این تلسکوپ نسبت به تلسکوپ هابل این است که می‌تواند طول موج مادون قرمز مربوط به نور ضعیفی که از کهکشان‌های دور دست می‌آید را اندازه گیری کند. طبق گفته الیس:«پیش‌بینی ما این است که کهکشان‌های بیشتری وجود داشته باشند».

لینک منبع مقاله

Star seen whizzing around supermassive black hole

Astronomers using the Keck telescope have found a new star orbiting very near to the supermassive black hole believed to be at the centre of the Milky Way. This is only the second star that researchers have observed completing an entire orbit – and its discovery confirms the black hole's presence beyond reasonable doubt. Future observations of both orbiting stars could provide a unique test of general relativity.

The Keck telescope atop Mauna Kea in Hawaii has been used since the mid-1990s to systematically probe the area surrounding the centre of the Milky Way. In doing so, astronomers revealed several stars that appear to be orbiting a central object dubbed Sgr A* ("Sagittarius A Star"). From measurements of the stars' orbital characteristics, it was calculated that Sgr A* must weigh in at around four million times the mass of the Sun. The only known astrophysical object that could be so massive, yet exist in such a small space, is a black hole. However, only the orbit of one star – S0-2 – had data covering its entire 16.5 year journey around the centre. Data on the rest of the stars cover less than 40% of their orbits – the remainder has been projected using modelling. In order to characterize an orbit, astronomers believe that 50% of a star's orbit needs to be observed. With only S0-2 breaking this threshold, some sceptics questioned whether a central black hole existed at all.

Better adaptive optics

Now, astronomers, including Andrea Ghez at the University of California, Los Angeles, have revealed the discovery of a new star named S0-102. "The orbital period of this star is just 11.5 years – the shortest of any star known to orbit the black hole," Ghez told physicsworld.com. "Improvements in adaptive optics have allowed us to find fainter stars and measure them more acurately," she says. With adaptive optics, the telescope's mirror is not a single surface, rather a tiled surface made up of smaller mirrors. A laser guide is fired into the sky above the telescope and the distortion of the laser due to atmospheric turbulence is measured. The shape of the mirror can then be adapted by moving individual tiles in order to compensate for the distortion.

This technique will also allow the future observation of S0-102 at apoapsis – its furthest distance from the black hole. "This will reduce our uncertainties in parameters like the black hole's mass," says Ghez. Having a second star to observe will also allow astronomers to improve their understanding of S0-2's orbit. In particular, it will help provide a more precise measurement of S0-2's periapsis – its closest approach to the black hole – in 2018. During periapsis, the star experiences a stronger gravitational force, causing an additional redshift in its light. The precise amount of redshift is predicted by Einstein's general theory of relativity. The experiment can be repeated when S0-102 reaches its own periapsis in 2021.

General relativity also predicts the precession of a star's periapsis. "The fact that space is warped by the gravity of the black hole means that orbits overshoot each time. The point of periapsis moves on in the direction that the star is already orbiting," explains Ghez. This is similar to the precession of Mercury's orbit within our own solar system – a puzzle that, when explained by Einstein in 1915, provided an early endorsement of his ideas.

Unknown parameter

However, this particular test of relativity is not possible with a single star. "The situation isn't as simple as two stars orbiting a single black hole," says Ghez. "There are likely to be other things orbiting in there too, such as stellar-mass black holes and neutron stars," she adds. This means that the orbiting stars do not see a symmetrical distribution of mass as they pass through this crowded region. If general relativity is to be tested, it has to be treated as an unknown parameter. If the mass distribution is also unknown, you need two stars to solve the equations. "With future advances in adaptive optics, and the next generation of telescopes, we will now be able to see whether Einstein's relativity stands up in this extreme gravitational environment," Ghez hopes. "It is pretty spectacular that they've observed the whole orbit of a second star," Nils Andersson, head of the General Relativity Group, at the University of Southampton, UK, says. "It shows there has to be a black hole in the centre, and it helps pinpoint how massive it is," he adds. However, he believes there are stronger tests of general relativity. "I think the best test beyond the solar system is still two pulsars orbiting around each other. That sort of system puts more constraints on Einstein's theory," he explains.