Download as pdf or txt
Download as pdf or txt
You are on page 1of 98

DEN MODERNA FYSIKEN PÅ 15 MINUTER

Johan Hansson
www.axplock.se
©Johan Hansson
Produktion: Bokförlaget Axplock
Grafisk design: Tobias Svensén
E-boksproduktion: Axiell Media 2016
ISBN 978-91-87119-85-9 (tryckt bok)
ISBN 978-91-87119-86-6 (ebok)
Kvantfysiken på 15 minuter –
världen är (o)sannolik

Den fysik som oftast används för att förklara vardagliga fenomen kallas
”klassisk” för att den är gammal och fanns innan den mer moderna
kvantfysiken upptäcktes i början av 1900-talet.

Kvantfysiken introducerar stora avsteg från det vi normalt brukar kalla


”sunt förnuft”. Inte heller har en specifik orsak längre en unik verkan.
Orsaken är inte att fysiker på något vis vill vara extra flummiga utan helt
enkelt att klassisk fysik är helt felaktig och rent av värdelös när det gäller
att beskriva mikroskopiska saker. Alltså även när man vill förstå
vardagliga fenomen riktigt detaljerat på en fundamental nivå.

I slutet av 1800-talet trodde man att fysiken var så gott som komplett, det
vill säga att allt redan var utforskat och känt, så när som på några ”små
obetydliga moln i horisonten”. Därför fick Max Planck som student rådet
att inte studera fysik, eftersom han då skulle slösa bort både sin tid och
talang. År 1900 upptäckte Planck kvantfysiken och resten är, som man
brukar säga, historia.

Idag vet vi att kvantfysik är helt oumbärlig för att verkligen förstå de allra
flesta fenomen i naturen. En del forskare behandlar till och med hela
universum som ett kvantmekaniskt system, de talar då om
kvantkosmologi, det vill säga sammanslagningen av kvantfysik och
kosmologi, som läran om universum som helhet kallas.

Det Planck till en början rätt så motvilligt tvingades införa i fysiken var
idén om att ljus enbart genereras i små, små energipaket, energikvanta.
Detta är också ursprunget till namnet ”kvantfysik” (eller ”kvantmekanik”
som betyder samma sak) och introducerades matematiskt genom
”Plancks konstant” h. Orsaken till att man inte märkte denna
nödvändighet tidigare var att kvanteffekterna oftast är helt omärkliga på
vår normala, klassiska nivå.1 Detta är relaterat till att h är så extremt liten
att vi inte märker naturens ”grynighet”.

Det som kanske är märkligast av allt med kvantfysiken är att det är helt
naturligt för ett kvantmekaniskt objekt, till exempel en elektron, att vara
på många olika ställen samtidigt. Vi vet ju av erfarenhet att en människa,
bil, rymdfärja eller svärmor (som tur är) inte kan vara på fler än ett ställe
åt gången. För en elektron, foton (ljuspartikel) eller någon annan
kvantpartikel är det tvärtom snarare regel än undantag. En och samma
partikel är överallt samtidigt (d.v.s. i princip överallt i universum, fast med
olika sannolikhet på olika ställen) ända tills den verkligen observeras av
en mätapparat. Då är den plötsligt bara på ett enda ställe. Om man väljer
att lägga ut mätinstrument på många olika ställen samtidigt så kan man, i
förväg, räkna ut hur stor chans det är att man kommer att se partikeln i
just ett av dem. I princip är detta det enda man bryr sig om, eftersom det
ändå är det enda man kan beräkna inom kvantfysiken, det vill säga att
beräkna sannolikheter för olika utfall. Men bara ibland är det själva
positionen som är intressant att känna till. Ofta räknar man i stället ut
energin, rörelsen, ändringar inuti atomer, atomkärnor etc., men alltid
uttryckt i sannolikheter, aldrig i säkerheter.
Man kan tolka det som att naturen själv inte har koll på exakt vad som
händer. Världen är helt enkelt ”luddig” på sin mest grundläggande nivå.
Verkligheten är bokstavligen mycket mer fantastisk än dikten. En bieffekt
är också att allt som inte är absolut förbjudet är obligatoriskt.

För relativt låga energier beskrivs kvantfysiken av


Schrödingerekvationen. Men hjälp av den kan man räkna ut
sannolikheten för att en given fysikalisk process ska ske. Med hjälp av
Schrödingers ekvation kan man, åtminstone i princip, räkna ut varför olika
föremål ser ut, luktar, smakar, känns och reagerar som de gör. Man kan
också förklara varför och hur kemin och biologin fungerar, varför det
överhuvudtaget finns olika grundämnen med sina vitt skilda egenskaper,
hur DNA fungerar, hur man ska tillverka bättre mediciner, elektroniska
komponenter, solceller… Listan kan göras precis hur lång som helst.
Dessutom kommer nästa revolution, fullt i klass med den industriella
revolutionen och informationsrevolutionen (som vi fortfarande lever mitt
uppe i), att vara ”kvantrevolutionen”. Datorer kommer att kunna bli nästan
hur små och kraftfulla som helst, och kommer att finnas överallt (både
innanför och utanför kroppen) utan att synas eller märkas. Enormt stora
mängder information kommer att kunna lagras och överföras. Redan nu
kan man teleportera fotoner, elektroner och atomer, det vill säga
omedelbart flytta/överföra dessa mellan två punkter utan att de behöver
färdas genom rummet emellan, och i princip tycks ingen storleksgräns för
vad som kan teleporteras finnas. Kanske kan Star Treks teleportör för
människor bli möjlig i en avlägsen framtid?
Mer krasst är kontentan att de stora pengarna i framtiden kommer att
vara knutna till kvantfysik. Precis som pengarna idag är knutna till
information (Maxwells 1800-talsfysik) och förr var knutna till ångmaskiner
och industrier (Newtons 1600-talsfysik).

Vid höga energier stämmer Schrödingerekvationen sämre och sämre,


eftersom den inte tar hänsyn till relativitetsteori. En mer korrekt version
kallas för Diracekvationen. Det finns små men fullt mätbara skillnader i till
exempel energinivåerna hos en atom som bara kan förklaras med hjälp
av Diracs ekvation. Dirac förutspådde också, via sin ekvation, existensen
av antimateria, som snart därefter upptäcktes experimentellt.

Vid extremt höga energier kan partikel-antipartikelpar produceras ur ren


energi. Detta är tillåtet enligt Einsteins berömda formel E=mc2, som
säger att massa och energi egentligen är två sidor av samma mynt.
Massa är bara ”infrusen” energi som har stelnat till en partikel. När
mängder av nya partiklar börjar produceras/förintas i till exempel en
partikelaccelerator (där energin som krävs kommer från den extremt
höga hastighet, nära ljusets, som partiklarna får då de accelereras)
måste även Diracekvationen modifieras till något som kallas
kvantfältteori. Kvantfältteorin är det mest exakta språk som människan
hittills har formulerat för att beskriva naturen. Man kan säga att den
härmar naturens egen mest grundläggande ”grammatik”.

När även gravitation – allmän relativitetsteori – ska slås ihop med


kvantteori slår det dock slint. (Kvantfältteori beskriver bara
sammanslagningen av speciell relativitetsteori med kvantfysiken.) Det
finns än idag ingen fungerande och allmänt erkänd teori för
kvantgravitation, trots vad strängteoretiker ibland vill göra gällande.
Enkelt uttryckt betyder detta att det idag inte finns någon mikroskopisk
teori, eller ”förklaring”, för gravitation som är experimentellt testad.
Gravitationen är den enda kraft som fortfarande bara kan beskrivas i
klassiska termer, det vill säga utan hänsyn till att naturen på sin mest
fundamentala nivå verkar lyda kvantfysikens märkliga lagar. Det är
mycket möjligt att lösningen på detta problem måste invänta ett nytt geni
av Einsteins kaliber.

Viktiga personer

Max Planck – introducerade år 1900 kvantbegreppet för att lösa den


”ultravioletta katastrofen”. Den klassiska fysikens lagar förutspår att ett
objekt med en temperatur över noll Kelvin ska stråla ut oändliga mängder
energi, vilket givetvis är i strid med observationer. På grund av att
atomerna i ett objekt, som Planck föreslog, enbart kan vibrera i vissa
givna kvantiserade tillstånd blir det svårare och svårare för objektet att
sända ut elektromagnetisk strålning med höga frekvenser (ultraviolett),
eftersom energipaketen som bärs av varje foton då blir större. På det
viset löste Planck detta stora problem och hans formel är i direkt
överensstämmelse med observationer. Nobelpris 1918.

Albert Einstein – Trots att Einstein på äldre dagar var en de starkaste


kritikerna av kvantfysiken, med uttalanden som ”Gud spelar inte tärning”,
var han också en av de tidigaste och största pionjärerna under
utvecklandet av den tidiga kvantfysiken. Bland annat utvecklade han
teorin som senare gjorde lasern möjlig (fotoner ”tycker om” att vara i
samma tillstånd som varandra, de lyder under ”Bose-Einstein statistik”)
och förklarade utifrån kvantmekaniska resonemang olika kroppars
detaljerade förmåga att absorbera och lagra värme vilket var okänt före
Einstein. Han förklarade också 1905 den fotoelektriska effekten,
förmågan som ultraviolett ljus har att slå ut elektroner ur metaller, genom
att anta att ljuset består av en ström partiklar, fotoner. För detta fick han
Nobelpris år 1921.

Niels Bohr – utvecklade den första kvantmekaniska teorin för atomen


1913. Sedan 1800-talet hade fysiker observerat oförklarliga emissioner
av ljus, så kallade spektrallinjer från upphettade gaser av olika
grundämnen. Många svenska fysiker, däribland Anders Ångström och
Janne Rydberg, hade gett stora bidrag till denna experimentella
vetenskap. Bohr förklarade varför spektrallinjerna från väte existerar
enbart för vissa givna färger genom att anta att elektronen bara kunde
befinna sig i vissa givna skal runt atomkärnan. När elektronen faller från
ett högre till ett lägre skal skickas energiskillnaden ut i form av en foton.
Därför utsänds bara vissa bestämda färger (även färger osynliga för ögat
i infrarött och ultraviolett). Nobelpris 1922.

Louis de Broglie – Bohrs atommodell var trots framgången mycket


primitiv och byggde egentligen på gammal klassisk fysik. Bland annat
kunde den inte användas för andra atomer än väte. Dessutom kunde
Bohr inte förklara varför de olika skalen fanns, eller varför elektronen inte
kunde falla hela vägen in i atomkärnan, det vill säga varför det fanns ett
innersta skal. Louis de Broglie inspirerades av Einstein som visat att ljus
ibland kunde bete sig som partiklar trots att den klassiska fysiken säger
att ljus måste vara vågor. I rättvisans namn borde då materia, som
normalt anses vara partiklar, också ibland kunna bete sig som vågor.
Louis De Broglie introducerade därför sin ”de Broglievåglängd” som kan
användas både för ljus och för materiepartiklar. De Broglies våghypotes
visades snabbt stämma genom experiment av Davisson & Germer.
Nobelpris 1929.

Werner Heisenberg – utvecklade 1925 den allra första detaljerade och


logiskt sammanhängande teorin för kvantmekanik. Heisenbergs så
kallade matrismekanik tog sin startpunkt i att enbart mätbara storheter
bör finnas i en teori. Ett problem var att de flesta fysiker på den tiden inte
kände till den matematik som användes i matrismekaniken, vilket gjorde
den otymplig och svår att använda. Nobelpris 1932.

Erwin Schrödinger – utvecklade år 1926 de Broglies hypotes om


materievågor till en sammanhängande teori för kvantfysikens dynamiska
beteende. Eftersom de metoder som Schrödinger använde var välkända
för alla fysiker (differentialekvationer) formligen exploderade snart
tillämpningarna av Schrödingerekvationen inom atom- och kärnfysik.
Nobelpris 1933 (delat med Dirac).

Paul Dirac – utvecklade år 1926 den mest generella och abstrakta


formuleringen av kvantmekaniken (”transformationsteori”). Visade att
både Heisenbergs och Schrödingers formuleringar var specialfall av hans
egen teori. Utvecklade också den första relativistiskt korrekta kvantteorin
för materia år 1928. Nobelpris 1933 (delat med Schrödinger).

Max Born – Heisenbergs handledare då denne som doktorand


utvecklade matrismekaniken. Born formulerade också den tolkning av
kvantfysiken som fortfarande är den gängse. Vågfunktionen i
Schrödingers ekvation är inte, som Schrödinger först trodde, en
beskrivning av hur elektronen i atomen är ”utsmetad”. I stället ger
vågfunktionen i kvadrat sannolikheten för att elektronen, vid en mätning,
ska påträffas på ett visst ställe. Det är denna tolkning som introducerar
den inneboende osäkerheten i kvantfysiken: Även om man lyckas lösa
Schrödingerekvationen exakt ger resultatet (vågfunktionen) ändå bara
sannolikhetsinformation. Nobelpris 1954.

Grundläggande ekvationer

Heisenbergs matrismekanik:

Schrödingerekvationen:
Diracekvationen:
Relativitetsteorin på 15 minuter

allt är inte alls relativt

”Pure logical thinking cannot yield us any knowledge of the empirical world; all knowledge of
reality starts from experience and ends in it.”

Albert Einstein

Alla har hört talas om Einstein och hans relativitetsteori. De flesta nöjer
sig dock med att veta att den finns, och kanske har de snappat upp
formeln E=mc2. En anledning till att få har något djupare begrepp om
teorin är att den tidigt fick rykte om sig att vara obegriplig för en vanlig
människa och endast kunde förstås av stora genier.
Så är det inte. Einsteins teorier kan man möta redan på gymnasiet och
på universitet är det vardagsmat med relativitetsteori, så särskilt
obegripligt är det inte.
Däremot går många av relativitetsteorins konsekvenser helt på tvärs
mot vår vardagliga erfarenhet. Einstein konstruerade relativitetsteorin i
två steg. Först den enklaste: Speciell Relativitetsteori (år 1905), som
beskriver hur saker beter sig då de har en väldigt hög konstant hastighet i
förhållande till varandra. I princip är speciell relativitetsteori alltid mer
exakt än Newtons lagar som den ersätter. Men i praktiken märks ingen
stor skillnad förrän den relativa hastigheten börjar närma sig 10 % av
ljushastigheten (ca 30 000 kilometer per sekund, eller 108 miljoner km/h).
Den speciella relativitetsteorin bygger på två grundläggande
antaganden, eller ”postulat”:
1. Ljushastigheten är lika för alla, oavsett rörelse.
2. Fysikens lagar är lika för alla, oavsett rörelse (så länge hastigheten
är konstant).
Det ser ut som tämligen oskyldiga antaganden, men följderna
revolutionerande fysiken.

Konstant ljushastighet

Allt är inte heller relativt. Som vi ser ingår ju redan i antagandena att
ljushastigheten aldrig ändras – den är alltså inte relativ utan tvärtom
absolut. Alla, oavsett sin egen rörelse, mäter upp samma värde för
ljushastigheten. I relativitetsteori kan också andra storheter konstrueras
så att deras värde aldrig ändras. Dessa oföränderliga storheter kallas
därför ”invarianter” och kan om de används på ett intelligent sätt både
underlätta beräkningar och minska risken för feltolkningar av
relativitetsteorin. Einstein hade faktiskt sånär tänkt kalla sin teori för
invariansteorin.
När den speciella relativitetsteorin var klar kunde Einstein börja jobba
på en mer heltäckande teori som inte bara skulle gälla för konstanta
hastigheter, utan rent allmänt. Den kallas följaktligen för ”allmän
relativitetsteori” (speciell relativitetsteori är alltså bara ett specialfall av
den allmänna, den är inte speciell i bemärkelsen bättre, snarare tvärtom).
Utökningen från speciell till allmän var ingen enkel historia att ta tag i. Det
tog Einstein tio års arbete att hitta lösningen, främst för att han i början
inte kunde den matematik som visade sig krävas.
År 1915 stod den allmänna relativitetsteorin klar, det vill säga teorin för
allmän (även accelererad) rörelse. Det är idag den mest exakta teori för
gravitation som vi har. Skillnaden mellan Newtons gamla gravitationslag
och allmän relativitetsteori kunde knappt vara större. Det är helt enkelt
två helt skilda sätt att se på gravitation, och Einstein byggde alltså inte
vidare på Newtons teorier och förbättrade eller justerade dessa.

I Einsteins modell finns inga gravitationskrafter. I stället kröker en klump


materia (eller energi eftersom det egentligen är samma sak) rumtiden,
sammanslagningen av rummets tre dimensioner och tiden. Objekt rör sig
sedan så rakt de någonsin kan genom denna krökta rumtid. (På
fackspråk kallas det att de följer ”geodetiska linjer”, motsvarigheten till
raka linjer i krökta geometrier.)
Krökt är rakt

Resultatet är att det för en enkel människa verkar som om


gravitationskrafter påverkar olika kroppar. Ett exempel är planeterna i
solsystemet som rör sig ”så rakt de kan”, eftersom de befinner sig i fritt
fall, men då solens massa kröker rumtiden blir slutresultatet att
planetbanorna kröker sig runt, runt solen. Ett annat exempel är stjärnorna
i en galax som också faller fritt genom rymden, som dock kröks av
galaxens egen materia vilket i sin tur resulterar i att stjärnorna rör sig runt
galaxens centrum.
Vid svaga gravitationsfält, det vill säga för små krökningar i rumtiden,
är det nästan omöjligt att praktiskt mäta skillnader mellan Newtons och
Einsteins olika synsätt. I solsystemet måste man göra mycket noggranna
mätningar för att se skillnaden. Denna lilla skillnad stämmer dock alltid till
Einsteins fördel.
Men å andra sidan – om Newtons teori skulle ha varit helt fel i
solsystemet skulle den givetvis aldrig ha utvecklats och fått en sådan
genomslagskraft. För att sätta en människa på månen 1969 behövde
man till exempel inte alls använda Einsteins teori – Newtons teori var fullt
tillräcklig för den precision man ville uppnå.
För väldigt intensiva gravitationsfält i universum, runt väldigt massiva
och/eller kompakta objekt, är dock Newtons teori värdelös och allmän
relativitetsteori måste användas. Ett extremt exempel är svarta hål, som
inte alls finns i Newtons teori, medan de automatiskt uppstår i Einsteins
så fort tillräckligt mycket materia/energi koncentreras inuti en viss volym.
Teoretiskt går det till och med att göra ett svart hål av enbart ljus. Trots
att ”beståndsdelarna” är enbart ljus blir slutresultatet helt svart…

Tiden är ur led

Det kanske krångligaste av allt med relativitetsteorin är att tiden kan gå


olika fort beroende på vem som mäter eller upplever den. Tiden är alltså
”formbar” och saker kan verkligen också åldras olika fort, det är ju tiden
själv som ”flödar” olika fort, inte bara klockorna som mäter den. Och en
biologisk livsform är bara en annan sorts klocka än till exempel en Rolex.
Om person A på långt avstånd ser person B falla in mot ett svart hål,
så kommer person A aldrig se att person B åker in i det svarta hålet. Den
olycklige B tycks i stället fastna på det svarta hålets ”yta”,
händelsehorisonten.
För person B själv, däremot, tar det bara några ögonblick innan
han/hon krossas i centrum av det svarta hålet. Denna synbarliga konflikt
beror på att tiden själv beter sig olika för person A och person B.
I relativitetsteorin är både rummet och tiden i viss mån deformerbara.
Och än värre – tid för en person kan vara rum för en annan, och vice
versa.
Orsaken till att vi upplever detta som konstigt, ja kanske till och med
otroligt, är att vi inte har någon direkt erfarenhet av dessa effekter. Det vi
kallar ”sunt förnuft” eller ”intuition” är ju ett resultat av vad vi själva, eller
någon annan, direkt har upplevt.

Avancerad tidmätning

Trots att vi inte har någon direkt erfarenhet av de extrema


omständigheter som krävs för att relativistiska effekter ska bli synliga, så
vet vi att de stämmer. Vi kan nämligen göra experiment där man uppnår
de extrema omständigheterna.
I alla partikelacceleratorer, som i stor skala funnits sedan 1950-talet,
har man dagligen testat speciell relativitetsteori, bland annat världens
mest berömda formel, E = mc2, som säger att energi (E) och materia (m)
är samma sak och (nästan) fritt kan omvandlas till varandra.
En liten mängd materia innehåller en enorm mängd ”frusen” energi,
eftersom m multipliceras med c2 = 90 miljoner miljarder. Detta utnyttjas
till exempel i kärnreaktorer – avfallet väger lite mindre än
bränslestavarna. Skillnaden frigörs som energi, av vilken en bråkdel
sedan omvandlas till elektricitet.
Man vet alltså att speciell relativitetsteori gäller, medan Newtons gamla
teori för rörelser är felaktig vid de här extrema förhållandena. Newton
hade ingen partikelaccelerator så vi kan egentligen inte skylla på honom
för teorins otillräcklighet. Dessutom gäller hans teori med mycket hög
precision under normala omständigheter och energier.
Allmän relativitetsteori har också testats noggrant, speciellt under de
senaste 20–30 åren. Bland annat mätte fysikerna Pound & Rebka tidigt
upp att tiden verkligen går olika fort i toppen och botten av ett torn, i exakt
överensstämmelse med den teoretiska förutsägelsen ur allmän
relativitetsteori. Gravitationen, det vill säga rumtidskrökningen, är lite
starkare i botten av tornet än i toppen. Återigen har Newton fel, hans teori
förutsäger ingen som helst skillnad.

Praktisk relativitetsteori

Än så länge finns det egentligen bara en praktisk tillämpning där man


måste ta allmän relativitetsteori med i beräkningen. Den som i tjock
dimma lyckats navigera sin båt genom ett område fullt av grynnor med
hjälp av GPS (global positioning system) hade aldrig klarat det utan
relativitetsteorin. Inom relativitetsteorin är det som sagt välkänt att tiden
och rummet inte är absolut utan beror på hur någonting rör sig (speciell
relativitetsteori) och hur starkt gravitationsfältet är (allmän
relativitetsteori). Man har också kunnat testa det i ett otal experiment och
vet att det stämmer, exempelvis genom att skicka upp ett precisionsur på
en resa runt jorden i flygplan, och jämföra med ett annat, identiskt ur som
fått stanna kvar nere på marken. När man för tillsammans dem igen
märker man att de dragit sig gentemot varandra på ett sätt som helt kan
förklaras med relativistiska effekter.
Och vad har då detta med GPS att göra? Jo, tekniken bygger på att
man har ett nät av satelliter som ska göra det möjligt att med hög
precision bestämma precis var på jordytan man befinner sig.
Relativitetsteorin, eller snarare naturen själv, ställer dock till två problem:
1. Satelliten rör sig snabbt runt jorden. Trots att det är med en liten
hastighet jämfört med ljusets är den tillräcklig för att förstöra
lägesprecisionen man vill åt.
2. Gravitationen är starkare hos oss på jordytan än uppe hos satelliten.

Enligt allmän relativitetsteori går tiden själv snabbare hos satelliten än


nere hos oss. Återigen är effekten liten, men tillräcklig för att helt förstöra
precisionen nere på markytan. Endast genom att korrigera för de
relativistiska effekterna är det möjligt att få den noggrannhet som krävs.
Precisionen i lägesbestämning med relativistiska korrektioner, där
ungefär 85 % kommer från den allmänna relativitetsteorin, resten från
den speciella, är ungefär 10 meter. Lägesosäkerheten utan hänsyn tagen
till relativitetsteorin skulle i stället räknas i kilometer, vilket skulle göra
GPS-tekniken betydligt mindre användbar.

Viktiga personer

Albert Einstein – löste med sin speciella relativitetsteori (1905) en


gäckande fysikalisk gåta: Hur skulle man få Newtons rörelselagar och
den mer ”moderna” elektrodynamiken att passa ihop. I samma veva
visade han att etern, mediet som elektromagnetiska vågor allmänt antogs
fortplanta sig i, inte finns. Eller i alla fall är onödig för teorin.
Einstein revolutionerade återigen fysiken med den allmänna
relativitetsteorin (1915) där han utgick från den enkla men geniala
insikten att en människa i fritt fall, till exempel i en hiss där vajern just gått
av, inte känner någon gravitationskraft alls. Det är alltså bara då det finns
icke-gravitationella krafter som hindrar en kropp från att anta sin naturliga
rörelse (fritt fall) som man upplever gravitation.

Albert Michelson – försökte under lång tid och genom många förfinade
experiment tillsammans med Edward Morley mäta jordens rörelse genom
etern. Mycket motvilligt fick Michelson till slut dra slutsatsen att etern inte
alls verkar finnas, ett ”icke-resultat” för vilket han senare fick nobelpris
1907.

Hendrik Konrad Lorentz – var den förste att skriva ner de relativistiskt
korrekta transformationerna mellan två observatörer som rör sig snabbt
relativt varandra, vilket löste motsättningen mellan Newtons rörelselagar
och Maxwells elektrodynamiska ekvationer. Lorentz ansåg dock att etern
fysikaliskt tryckte ihop objekt i rörelseriktningen och såg inte den
elegantare lösningen som Einstein senare formulerade i sin speciella
relativitetsteori (1905).
Hermann Minkowski – Einsteins matematiklärare och den som först
insåg att tiden kunde behandlas som en extra, fjärde dimension. Tiden
behandlas i relativitetsteorin (nästan) som en rumsdimension med
skillnaden att man bara kan röra sig åt ett håll i tidsdimensionen, framåt.

Arthur Eddington – brittisk astronom som planerade och genomförde en


expedition 1919 för att mäta den allmänna relativitetsteorins förutsägelser
för hur ljuset böjs av på grund av solens massa. Eftersom man använde
fixstjärnornas skenbara positionsändring nära solens kant var man
tvungen att invänta en total solförmörkelse, därav fördröjningen på fyra år
efter att teorin först formulerats. Resultatet av denna expedition gjorde att
tidningar jorden runt lanserade Einstein som ett geni, en hjälte och
världskändis.

Grundläggande ekvationer

Lorentztransformationer översätter mätningar och observationer från ett


referenssystem till ett annat som rör sig med hastigheten v relativt
varandra (längs x-axeln i detta fall).

Einsteins fältekvationer är ett kopplat system av tio icke-linjära partiella


differentialekvationer som beskriver gravitationsfältet, det vill säga hur
massa och energi kröker rumtiden. Kan lösas exakt enbart i ett fåtal
specialfall.

Schwarzschildmetriken är kanske den mest kända lösningen till Einsteins


fältekvationer. Beskriver ”metriken”, det vill säga rumtidens geometri, runt
en sfäriskt symmetrisk statisk massa.

Formel för ett svart hål. Om massan ligger innanför ett tillräckligt litet
område kollapsar den till ett svart hål. Inget som hamnar innanför den så
kallade Schwarzschildradien, rs kan då ta sig ut, inte ens ljus. Man kan se
det som att rummet självt innanför rs faller in mot centrum snabbare än
ljuset. För jorden är Schwarzschildradien av storleksordningen en
centimeter, men det finns ingen känd kraft som skulle kunna komprimera
ihop jorden så mycket.

Friedmann-Robertson-Walkermetriken är grunden för modern kosmologi.


Om man idealiserar energi och materieinnehållet i universum till att vara
exakt jämnt fördelat och lika i alla riktningar är FRW-metriken den unika
lösningen till Einsteins ekvationer applicerade på hela universum.
Kaosteorin på 15 minuter –
världen är inget urverk

Modern forskning påstås ofta i detalj kunna förklara så exotiska fenomen


som exploderande jättestjärnor, universums första sekund och dess
slutgiltiga öde, men verkligheten är att man inte ens kan förstå en
droppande vattenkran i detalj, trots att den finns där, rätt framför ögonen.
Det har nämligen visat sig att under vissa förhållanden, för i stort sett
vilket fysikaliskt system som helst, kommer de mätfel, alternativt de yttre
störningar, som oundvikligen alltid finns, att fördubblas vid varje steg
framåt i tiden (mätfelet växer exponentiellt). Efter en kort tidsrymd
kommer vi då inte att kunna säga något om systemets beteende. Vad
som är ”kort” beror på vad vi studerar: en pytteliten bråkdel av en sekund
för en turbulent vattenström, några miljoner år för planetrörelser.

Det fenomen som beskrivits ovan brukar kallas för deterministiskt kaos,
eller enbart kaos:
1. Det finns en exakt (deterministisk) regel för att förutsäga det framtida
beteendet, men…
2. I praktiken blir detta omöjligt eftersom vi aldrig har de oändligt
precisa indata som krävs.

Vädret (atmosfären), är t ex ett kaotiskt system, vilket innebär att vi aldrig


kommer att ha detaljerade väderprognoser som sträcker sig längre än två
veckor in i framtiden, oberoende av hur kraftfulla datorer som utvecklas i
framtiden.

Orsaken till kaotiskt beteende kan skrivas ”icke-linjära system” (om man
ska vara petig är det ett nödvändigt, men inte tillräckligt kriterium).
Newton själv visste mycket väl om att hans ekvationer, som beskriver
allmän rörelse, kunde vara icke-linjära. Problemet var bara att varken
Newton, eller någon annan heller, oftast inte kunde lösa ekvationerna om
de inte gjorde förenklande antaganden. Man ”linjäriserade” ekvationerna,
det vill säga plockade bort de otrevliga olinjära termer som var orsaken
till att man inte kunde hitta lösningar. Efter ungefär ett århundrade av
detta förfaringssätt hade fysikerna blivit så hjärntvättade att de trodde att
naturen själv var linjär (trots att det ju ursprungligen bara var ett
förenklande trick för att hitta ungefärliga lösningar). Man fick därför för sig
att naturen var ett perfekt förutsägbart urverk som man i framtiden kunde
och skulle få perfekt vetskap om. I vissa fall, under ”snälla” förhållanden,
fungerar linjäriseringen oftast utmärkt. Men ibland gör den det
inte… Matematikern och fysikern Poincaré var den förste som såg tecken
på detta redan runt år 1900, men blev mest förfärad. Det tog ända till
1960-talet, och datorernas intåg, innan man förstod att icke-linjärt och
kaotiskt beteende mer var regel än undantag. Den som först märkte
detta, genom datorberäkningar, var en teoretisk meteorolog från USA,
Edward Lorenz.
Allt detta var alltså redan från början inbäddat i de klassiska
fysiklagarna, både i Newtons ekvationer och i Maxwells ekvationer för
elektromagnetismen. Fysikerna hade helt enkelt lurat sig själva genom
att bara bry sig om det som gick att lösa med papper och penna, det vill
säga med de problem som kunde ges en lösning i termer av en formel.
Därigenom städade man också under hundratals år redan från början
bort alla möjligheter att upptäcka det som idag kallas deterministiskt
kaos, det vill säga ett system som ser ut att bete sig slumpmässigt trots
att det styrs av (ofta) väldigt enkla fysiklagar. En lösning i form av en
formel kan helt enkelt aldrig ha ett kaotisk beteende, formeln är alldeles
för regelbunden för det.
Det krävdes alltså datorer innan forskarnas mentala hjärntvätt kunde
släppa.

Man brukar skilja mellan två olika fall, kaos med och utan friktion,
”dissipativt” och ”icke-dissipativt” kaos. De berömda ”sällsamma
attraktorerna”, som Lorenz fann det första exemplet på, kan enbart
uppstå i dissipativa system, eftersom det enda sättet för systemets
beteende att närma sig en attraktor är att energi blöds av. Attraktorer
finns alltså inte för icke-dissipativa system, i stället blir beteendet oändligt
sammantrasslat trots att totala storleken av det inte ändras.
I bägge fallen, det vill säga både med och utan friktion, måste
ekvationerna vara icke-linjära för att kaos skall uppstå.

Men den droppande vattenkranen vi redan nämnt kan väl inte ha en


fantastisk förklaring? Alla vet väl hur en droppande kran beter sig? Det
var precis vad alla trodde innan Robert Shaw skrev hela sin
doktorsavhandling om just beteendet hos dessa droppar. Du kan själv
pröva delar av detta. Gå ut i köket och slå på vattenkranen, så att du får
en jämn och fin stråle som nästan ser ut som en frusen istapp. Det du nu
har skapat kallas ”laminärt” flöde, och är enkelt att beskriva matematiskt.
Öppna nu kranen för fullt, det laminära flödet övergår i turbulent flöde
som är i stort sett omöjligt att beskriva i detalj matematiskt. Gör nu i
stället motsatsen, dra ner flödet tills det inte ens skapas en droppe per
sekund. Droppandet kommer nu att vara periodiskt, varje droppe kommer
med samma tidsintervall, dropp-dropp-dropp… Öka flödet försiktigt och
du kan skapa ett tvåperiodiskt droppande, dripp-dripp-dropp-dripp-dripp-
dropp…

Beroende på din vattenkran och hur skicklig du själv är kan du skapa


ytterligare några flerperiodiska droppsekvenser, d.v.s. sådana som tar
fler antal droppar på sig innan de åter upprepar sig. Över en viss gräns
på flödet kommer ingen exakt upprepning att ske oavsett hur länge man
väntar, droppandet har blivit kaotiskt. Robert Shaw använde en mer
exakt ”kran” (nålventil) i sina studier och en laserstråle för att mäta
tidsintervallet mellan successiva droppar, men i princip gjorde han
samma sak som du just gjort. Faktum är att Shaws undersökning var en
del av den revolution under 1970-talet som idag kallas kaosforskning.
Orsaken till att dropparna kan bete sig så underligt stavas icke-linjära
system. Om och när droppen lossnar från kranen bestäms av ett
komplext samspel mellan gravitationskraften och de elektromagnetiska
krafter (bland annat ytspänning) som försöker hålla fast droppen och
hindra den från att falla. Dessutom kommer en droppe som faller att
skicka en chockvåg genom vattnet som hänger kvar i kranen och
påverka när nästa droppe faller. Vid långsam dropptakt hinner chocken
ebba ut och man får ett högst förutsägbart beteende som bara beror på
vattenflödet. För högre dropptakt kan chockvågen förstärka eller försvaga
det ”naturliga” flödet. Till slut blir samspelet så starkt och komplicerat att
ingenting kan sägas i detalj om när nästa droppe skall falla. I det kaotiska
området (högt flöde) spelar det ingen roll hur bra information man har om
det historiska droppbeteendet. Man kan ha samlat in data för 100 000
tidigare droppar utan att det hjälper ett dyft för att förutspå när nästa
droppe ska falla.

Detta är något som är gemensamt för alla system som är kaotiska. Det är
i praktiken omöjligt att förutspå exakt vad som kommer att hända. Ett
välkänt exempel är vädret, alla vet att väderprognoser alltid bör tas med
en nypa salt. Orsaken är att atmosfären är ett högst kaotiskt system.
Faktum är att alla fysikaliska system egentligen är icke-linjära. Andra
exempel på kaotiska system är hjärtat & hjärnan. JAS-planet är
konstruerat så att det ska vara instabilt och faller som en sten om
datorerna som stabiliserar det kraschar. Varför är det så, jo bland annat
för att ett kaotiskt objekt är lättare att påverka. Hjärtat och hjärnan
behöver kunna ändra tillstånd mycket snabbt (t.ex. om en björn dyker
upp i skogen när man plockar bär). JAS kan svänga snabbare och
brantare just för att designen i sig är riktningsinstabil.

Det är dock viktigt att påpeka att samma system kan bete sig enkelt
under vissa omständigheter och kaotiskt under andra. I vårt exempel
med den droppande vattenkranen kan vi ju reglera detta med hjälp av
vattenflödet. Kaosteorin har lett till att man idag vet att:
1. Synbarligen komplicerat och ”slumpmässigt” beteende kan bero på
mycket enkla, men icke-linjära, lagar.
2. Icke-linjära system är regel, linjära system är ungefärliga
beskrivningar som bara fungerar ibland.
3. Inom det kaotiska området försvinner förmågan till detaljerade
förutsägelser mycket snabbt.
4. Det finns mycket kvar att upptäcka…

Det finns t.ex. idag astrofysiker som påstår att de känner till nästan ”allt”
om hur en supernovaexplosion går till, slutfasen av en mycket tung
stjärnas liv. Men eftersom en supernova har tusentals ingående
kontrollparametrar, och vi redan har sett att den droppande kranen med
bara en parameter (flödet) inte är fullt förstådd, inser vi att vi ska ta alla
sådana uttalanden med en stor nypa salt. Vetenskap är aldrig ett avslutat
kapitel. Dagens ”sanning” är bara ett steg mot morgondagens, mindre
felaktiga, världsbild.

Viktiga personer

Henri Poincaré – Räknas som en av historiens största matematiker. Såg


i slutet på artonhundratalet de första tecknen på kaotiskt beteende, ”en
mardröm”. Detta hände för övrigt i samband med att han vann en tävling
(1889) som utlysts av svenske kungen Oscar II, i syfte att ta reda på om
solsystemet var stabilt eller inte.

Edward Lorenz – upptäckte (1960), av en slump, för allra första gången


ett konkret exempel på kaotiskt beteende i en mycket förenklad modell
för vädret. Ingen enkel periodisk strömning uppträder, i stället ställer
systemet in sig enligt en ”sällsam attraktor” (”strange attractor”, 1963)
som innebär att beteendet aldrig någonsin exakt upprepas. Innan Lorenz
arbete hade alla attraktorer varit enkla geometriska objekt: Punkter – där
sluttillståndet är rent stillastående, t.ex. en pendel med friktion som ju till
slut stannar. Slutna kurvor – som motsvarar periodisk rörelse, till exempel
en pendel med drivning, som i ett pendelur. Ytor – som motsvarar
multiperiodisk rörelse. (Strikt genereras ytor bara då relationen mellan de
olika ingående periodtiderna inte är kvoten av två heltal.)

David Ruelle – kopplade, tillsammans med Floris Takens, för första


gången (1971) ihop turbulens i vätskeströmmar med begreppet kaos.

Robert May – skrev en tongivande översiktsartikel om kaos i den


”logistiska avbildningen” (1976), en mycket enkel modell som bland annat
använts för antalet individer i en population av djur eller bakterier.

Mitchell Feigenbaum – upptäckte (1978) att många olika kaotiska


system uppvisar likadant beteende. I vissa fall finns alltså en
”universalitet” i kaoset, som vid första påseende inte alls är uppenbart.

Benoit Mandelbrot – upptäckte ”fraktaler” (1975), oändligt ojämna


geometriska figurer, bland annat genom sina matematiska studier av
kustlinjer. Mandelbrot insåg att kuststräckan inte är bestämd en gång för
alla utan beror på hur lång måttstock man använder. Senare kom
fraktaler att länkas samman med kaos eftersom kaotiska ”sällsamma
attraktorer” är exempel på fraktaler.

Robert Shaw – visade (1984) att även extremt enkla system, som en
droppande kran, kan uppvisa mycket komplicerat kaotiskt beteende.

Ilya Prigogine – visade att system som tvingats långt från jämvikt kan
uppvisa självorganiserande egenskaper. Nobelpris i kemi 1977. Har
också gett stora bidrag till deterministiskt kaos och kopplingen till
kvantfysiken.

Grundläggande ekvationer

”Lorenz ekvationer” utgör en extremt förenklad konvektionsmodell av


vädret.

För vissa värden på konstanterna σ, ρ, β är systemet kaotiskt:

Lorenz ”sällsamma” attraktor, som systemet givet av Lorenz ekvationer


närmar sig, och sedan rör sig på, oavsett var det ursprungligen startar (i
det kaotiska området):

Mandelbrotmängdens mycket enkla genereringsfunktion i komplexa


talplanet. Mandelbrotmängden (svarta fält i figuren) definieras av de
punkter som INTE flyger iväg mot oändligheten då man använder
genereringsfunktionen om och om igen (itererar). Mandelbrotmängdens
”kustlinje” är en fraktal:
”Logistiska ekvationen”, en iterativ modell där nästa tal ges av det
föregående. I en populationsmodell står talen x för antalet individer i
successiva generationer. Trots sitt mycket enkla utseende gömmer den
ett extremt komplext beteende:

”Bifurkationsdiagram” för logistiska ekvationen. För små värden på


konstanten r uppvisar logistiska ekvationen först en punktattraktor (som
till exempel alltid driver lösningen till x = 0 då r < 1), för högre värden på r
hoppar x först mellan två olika värden, sedan mellan fyra, åtta,
sexton… Då r > 3,57 blir beteendet kaotiskt och hoppar ”slumpmässigt”
mellan olika värden, som till slut fyller alla möjligheter då r = 4:
”Feigenbaums konstant”, δ. Logistiska ekvationen och liknande
endimensionella ekvationer uppvisar ”universalitet”. Trots det kaotiska
beteendet finns en underliggande ordning:
Partikelfysiken på 15 minuter –
vad är fundamentalt?

De minsta beståndsdelarna, de fundamentala byggklossarna som allt är


gjort av och som man idag känner till delas upp i två huvudtyper:
”kvarkar” och ”leptoner”. Kvarkar bygger bland annat upp protoner och
neutroner, som i sin tur bygger upp atomkärnorna. Ett exempel på en
lepton är vår vanliga elektron, som leder elström i elledningar, men som
också ser till att människokroppen och alla andra objekt hänger samman.
Inte bara ”materiepartiklarna”, kvarkar+leptoner, är partiklar, utan även
krafterna är på sin fundamentala nivå partiklar.
Detta beror på att man idag använder kvantfältteori för att beskriva
krafterna, partiklarna är helt enkelt kvanta, givna energipaket, av
motsvarande kraftfält.

Det finns idag bara fyra kända naturkrafter. Tre av dessa beskrivs som
utbyte av ”kraftpartiklar”:
1. Elektromagnetiska krafter överförs av fotoner (ljuspartiklar), av vilka
det bara finns en typ.
2. Svag kärnkraft, som bland annat står bakom radioaktivt sönderfall,
förmedlas av tre stycken så kallade W- och Z-partiklar.
3. Stark kärnkraft, som binder ihop kvarkar till t.ex. protoner och
neutroner, beskrivs av åtta olika gluoner (”klisterpartiklar”). Ett läckage av
denna gluonkraft är det som sedan binder ihop protoner och neutroner till
olika atomkärnor.

Bägge kärnkrafterna har en extremt kort räckvidd, de är bara verksamma


inuti atomkärnan. De har alltså bara en räckvidd på ungefär en tusendels
miljarddels millimeter. Därför märker vi inte av dem i vardagslivet och det
var också därför man inte förstod dem ordentligt förrän en bra bit in på
1970-talet.
Kvarkar påverkas av alla tre typerna av kraftpartiklar. Elektroner, och
andra elektriskt laddade leptoner, påverkas av fotoner och av W/Z-
partiklar. Neutriner, de elektriskt neutrala leptonerna, påverkas enbart av
W- och Z-partiklarna. Därför är neutriner så gott som helt obenägna att
delta i några reaktioner överhuvudtaget. Jorden, och vi själva,
genomborras ständigt av en enorm mängd neutriner som helt automatiskt
bildas i solens energiproduktion, utan att någonting händer oss. Alla
material är i stort sett totalt genomskinliga för neutriner.

En märklig, oväntad upptäckt under 1960- och 1970-talen var att kvarkar
och leptoner arrangeras i ”familjer” eller ”generationer”. Hittills har man
upptäckt tre sådana familjer, där kvarkar och leptoner arrangeras parvis
med ökande massa. I den första familjen ingår kvarkarna u (up) och d
(down) och leptonerna e (elektron) och dess neutrino, νe. I den andra
familjen ingår kvarkarna s (strange) och c (charm) och leptonerna μ
(myon) och dess neutrino νμ. I den tredje, och hittills sista, familjen har vi
kvarkarna b (bottom) och t (top) och leptonerna τ (tauon) och dess
neutrino ντ. Om denna upprepning fortsätter (i det oändliga?) vet man
inte. Genom mätningar på bland annat hur Z-partikeln sönderfaller vet
man i alla fall att eventuella ytterligare generationer inte kan ha
lätta/masslösa neutriner, vilket de tre kända familjerna alla har.
Däremot har man inte den blekaste aning om varför naturen har denna
upprepning inbyggd. Partikelgenerationerna verkar vara i det närmaste
identiska, förutom att massan på partiklarna ökar för varje generation.
Dessutom är vissa ”kvanttal” olika.
Redan på 1940-talet, då myonen först upptäcktes, uppdagades detta
problem. Varför skulle elektronen ha en nästan identisk ”kusin” som är
ungefär 200 gånger tyngre? På 1970-talet upptäcktes nästa
elektronkusin, tauonen, återigen i stort sett identisk med elektronen men
ca 3500 gånger massivare. Varför?2

Om vi räknar ihop antalet partiklar som idag utgör den mest


grundläggande nivån i universum har vi på materiesidan 6 st. kvarkar och
6 st. leptoner och på kraftsidan 1 st. foton, 3 st. W- och Z-partiklar och 8
st. gluoner. Detta kan verka krångligt, men man ska komma ihåg att
denna så kallade standardmodell inom partikelfysiken, beskriver alla
kända fenomen i universum. Utom ett… Det finns, som jag tidigare
nämnt, fortfarande ingen korrekt formulering av gravitationen i termer av
partiklar, det vill säga man har idag ingen förståelse för hur gravitationen
uppkommer rent mikroskopiskt sett. Vår bästa teori om gravitation är
fortfarande Einsteins allmänna relativitetsteori från 1915, som är en rent
klassisk teori, vilket innebär att den är formulerad utan hänsyn till
kvantfysik. Problemet med att förena allmän relativitetsteori med
kvantfysik, och på så vis få fram en teori om kvantgravitation, är kanske
den allra största utmaningen inom hela fysiken.
Det är också fullt möjligt att kvarkar, leptoner och kraftpartiklar i sin tur
består av ännu mindre, ännu mer fundamentala beståndsdelar. Att man
inte har sett dem kan bero på att man ännu inte kunnat titta djupt nog in i
materien.

Alla fenomen människan (hittills) har stött på kan alltså förklaras utifrån
enbart fyra naturkrafter. Det är en otrolig bedrift och en förenkling som
saknar motstycke i någon annan vetenskap än fysik. Av de fyra krafterna
är två sådana som vi har direkt erfarenhet av, gravitation och
elektromagnetism, och två som bara är verksamma inuti atomkärnorna,
svag och stark kärnkraft. Orsaken till att vi bara märker gravitationen och
elektromagnetismen är att de har oändlig räckvidd, medan kärnkrafterna
snabbt faller till noll utanför atomkärnan.

Kopplingen mellan det största och det minsta

Eftersom vi idag tror att universum skapades ur ingenting för ungefär 14


miljarder år sedan, från ett urtillstånd som (kanske) var oändligt
hoptryckt, krävs kvantfysik för att förklara hur det skapades och hur det
utvecklats. I det nyskapade universum var den naturliga längdskalan
jämförbar med elementarpartiklarnas. Därför bestämmer naturlagarna
som vi nyligen hittat (och säkerligen kommer att fortsätta hitta) hur det
tidiga universum utvecklades. Det finns alltså en naturlig, ofrånkomlig
koppling mellan det allra minsta och det allra största, det vill säga mellan
de fundamentala elementarpartiklarna och hela universum. Om
naturlagarna i det tidiga universum avvikit med bara någon promille från
dem vi känner skulle dagens universum ha sett ut på ett helt annat sätt.
Vissa går till och med så långt som att påstå att universum är måttbeställt
för att skapa intelligent liv (eller till och med människor). Denna hypotes
kallas ”antropiska principen”, men långt ifrån alla forskare tror att det är
så.
Det tidiga universum är konstigt nog lättare att teoretiskt beskriva än
vårt nutida universum. Detta beror på att universum var extremt hett och
välblandat i början. Vi tror oss, att med enbart fysik känd och testad i
labbet, väl kunna beskriva universum från att det var bråkdelar av en
miljarddels sekund gammalt. Hybris i ett nötskal? Om man jämför med
vanligt vatten så kan man kanske förstå hur det kan vara på det sättet.
Om vi hettar upp vatten till flera tusen grader blir resultatet ett plasma,
det vill säga joniserad vattenånga, som är likadan överallt. Då vattnet kyls
övergår det först till normal gasform (elektronerna binds, då det blir
tillräckligt ”kallt”, till sina atomkärnor), sedan till flytande form (det vi oftast
kallar ”vatten”, trots att byggstenarna är desamma i alla tillstånd), och
slutligen till fast form (is). Vattnet blir svårare att beskriva ju lägre
temperaturen blir, eftersom allt fler fenomen och strukturer då kan
uppträda. Vad som brukar kallas den klassiska fysikens sista
kvarvarande mysterium, turbulens, handlar just om vätskor och gaser
som strömmar så snabbt att flödet blir helt oregelbundet och (hittills)
omöjligt att i detalj förstå eller förutse. Is har (minst) 18 olika kristallformer
och komplicerade kopplingar mellan elektronerna i vattenmolekylerna,
och så vidare. Universum fungerar likartat, men givetvis inte identiskt. Då
universum automatiskt kyls på grund av expansionen, kan mer och mer
komplicerade strukturer börja bildas. I det tidiga universum antas varje
del av det vara identisk med alla andra, förutom de mycket små
fluktuationer som fungerar som ”frön” till de strukturer vi ser omkring oss
idag. I dagens universum har olika krafter, främst gravitationen, gett
upphov till nära nog oändligt många detaljstrukturer på alla tänkbara
skalor. Bland annat planeter, stjärnor, solsystem, galaxer, galaxhopar,
superhopar, kosmiska filament & tomrum (voids).
Om det verkligen är så att universum idag domineras av en mystisk
mörk energi, som dagens bästa observationer tycks peka på, är oddsen
stora att också den uppkommer på grund av något (okänt) mikroskopiskt
fenomen, återigen en koppling mellan det allra största och det allra
minsta.
Kunskapen inom grundforskning ökar ständigt. Samtidigt uppkommer nya
frågor för varje fråga som besvaras, speciellt i ett område som så starkt
drevs av experimentella resultat som partikelfysiken mellan 1950- och
1970-talen. På senare år har den fruktbara inverkan från oförklarade
experimentella resultat stagnerat, delvis eftersom partikelfysikens
standardmodell varit så framgångsrik att den blivit lite av ”ett offer för sin
egen framgång”. Förhoppningsvis kommer en ny snabb utvecklingsfas av
partikelfysiken att ske i och med partikelacceleratorn LHC – Large
Hadron Collider – vid CERN.
Ett forskningsområde i stark utveckling fungerar nämligen som en
snabbt växande bubbla. Det inre, det kända, ökar visserligen ständigt,
men samtidigt växer ytan mot det okända, forskningsfronten, också allt
snabbare.

Viktiga personer

J. J. Thompson – upptäckte den första elementarpartikeln, elektronen


(1897). Detta kan ses som startpunkten för hela partikelfysiken. Nobelpris
1906.

Ernest Rutherford – upptäckte protonen (1919). Rutherford, som ansåg


sig vara fysiker (upptäckte atomkärnan 1911), var mindre glad över att
han tilldelades nobelpriset i kemi för vissa typer av radioaktiva sönderfall
1908.

Paul Dirac – uppfann kvantfältteorin, det matematiska ”språk” man


beskriver partikelfysiken med (1930). Kvantfältteorin är en
sammanslagning av kvantfysiken och den speciella relativitetsteorin.
Nobelpris 1933.

James Chadwick – upptäckte neutronen (1932). Nobelpris 1935.

Carl Anderson – upptäckte positronen, det första exemplet på en


antipartikel (1932). Positronen är en antielektron. Nobelpris 1936.
Enrico Fermi – föreslog den första riktiga teorin för den svaga
kärnkraften, som bland annat orsakar radioaktiva sönderfall (1933).
Nobelpris 1938.

Hideki Yukawa – föreslog den första detaljerade teorin för den starka
kärnkraften, som bland annat håller ihop atomkärnan (1935). Nobelpris
1949.

Richard Feynman – teoretisk fysiker som gjorde stora insatser inom


många olika områden, men främst inom teoretisk partikelfysik. Visade i
slutet av 1940-talet hur kvantelektrodynamiken/kvantfältteorin skulle
modifieras för att praktiskt kunna användas för beräkningar.
Introducerade i samband med detta ”Feynmandiagram” som på ett enkelt
sätt åskådliggör partikelreaktioner, och strukturerar upp beräkningarna.
Formulerade (tillsammans med Gell-Mann) den första detaljerade teorin
för svag växelverkan (1958). Nobelpris 1965.

Murray Gell-Mann – dominerade stora delar av partikelteorin under 1950


och 1960-talen. Föreslog kvarkarna (u, d och s) år 1964 (vilket
oberoende också gjordes av Georg Zweig under namnet ”aces”).
Formulerade tillsammans med Harald Fritzsch ursprunget till
kvantkromodynamiken (1972), teorin för hur kvarkar växelverkar med
hjälp av ”klisterpartiklar” (gluoner). Nobelpris 1969.

Steven Weinberg – tillsammans med Gell-Mann den som dominerade


partikelteorin under 1960- och 1970-talen. Bidrog starkt till samtliga
komponenter av den nuvarande ”standardmodellen” inom partikelfysik,
som sammanfattar/förklarar så gott som alla experimentdata hittills.
Nobelpris 1979.

Sheldon Glashow – sådde fröet till den elektrosvaga teorin redan i sin
doktorsavhandling på 1950-talet (som skrevs med den berömde fysikern
Julian Schwinger som handledare). Var också den förste att teoretiskt
föreslå en fjärde variant av kvark, ”charmkvarken” c (tillsammans med
James Bjorken). Nobelpris 1979.
Grundläggande ekvationer

Kvantelektrodynamik (QED):

Moderna kvantfältteorier formuleras vanligen med hjälp av en


”Lagrangian”, L, som grovt sett beskriver energin i varje punkt i rumtiden.
ψ beskriver här laddade materiefält (kvarkar och leptoner), F beskriver
kraftfält (fotoner) och D innehåller termer ansvariga för den
elektrodynamiska växelverkanskraften.

Kvantkromodynamik (QCD):

Trots den ytliga likheten med QED är QCD betydligt mer komplicerad.
Detta beror på att gluonerna (kraftpartiklarna) också växelverkar direkt
med varandra, vilket fotonerna inte gör. q = kvarkfält, G = gluonfält, och D
beskriver växelverkan.
Kosmologin på 15 minuter –
läran om allt

Varför är inte hela himlen lika ljus som solen, dygnet runt? Det är väl
självklart, tycker du kanske? Men faktum är att detta fram tills rätt nyligen
var ett stort problem som gick under namnet ”Olbers paradox”. Låt oss
för enkelhets skull anta att alla stjärnor är som solen (inte sant, men en
första hyfsat bra förenkling). Solljusets intensitet avtar med avståndet på
ett specifikt sätt. Om vi tänker oss en klotformig bubbla med solen i
centrum måste ju det totala solljuset spridas ut på en allt större yta då
bubblan, d.v.s. avståndet, görs större. Ytan på bubblan ökar helt enkelt
som avståndet i kvadrat, det vill säga avståndet gånger sig själv.
Ljusintensiteten var som helst, på ett visst avstånd (r) från solen avtar
alltså med ytan (d.v.s. som 1/4πr2). Om vi nu antar att vår egen
omgivning är ungefär likadan som för universum i stort (detta antagande
kallas ”homogenitet”) så vet vi hur många stjärnor som i medeltal finns
inom en viss given volym (detta kan vi enkelt mäta för närliggande
stjärnor). Om nu stjärnorna i medeltal är lika många oavsett var
någonstans i universum vi befinner oss, så kommer antalet stjärnor på
vår bubbla att öka med arean. Om vi ökar avståndet till vår tänkta bubbla
så att dess yta fördubblas, så ökar också antalet stjärnor som ligger på
bubblans yta till det dubbla. Antalet stjärnor ökar alltså på precis samma
sätt som ljusstyrkan från en enskild stjärna minskar. Effekterna tar alltså
ut varandra. Om vi också tar hänsyn till att stjärnorna på olika avstånd
från oss delvis skymmer varandra när vi tittar riktigt långt bort, så blir
slutsatsen att hela himlen borde vara lika ljusstark som solen, både dag
som natt. Samtidigt vet vi ju att himlen är mörk på natten, då solen skiner
på ”den andra sidan” av jorden… Detta är Olbers paradox.

Vad är då den moderna lösningen på denna paradox?


1. Universum expanderar.
2. Stjärnor lever inte för evigt.

På 1920-talet observerade Edwin Hubble, med hjälp av världens då


största teleskop, att universum utvidgas3. Han upptäckte en lag,
”Hubbles lag”, som säger att expansionstakten är direkt relaterad till
avståndet. Om t.ex. en galax ligger på ett visst avstånd från oss och
avlägsnar sig med en viss hastighet så kommer en annan galax, på
dubbla avståndet, att avlägsna sig från oss med dubbla hastigheten. Det
är den enklaste relation man kan tänka sig, och den följer direkt om man
antar att universum expanderar som en ”jäsande muffinsdeg”: degen
mellan russinen (d.v.s. tomrummet mellan galaxerna) utvidgas lika
mycket överallt, och eftersom det finns mer deg mellan russinen längre
bort kommer de också att avlägsna sig snabbare på grund av jäsningen.
Om man tänker på det en stund kommer man också fram till att det inte
spelar någon roll vilket russin man sitter på, alla de andra russinen rör sig
från en, med högre hastighet ju längre bort de befinner sig. Eftersom
samma sak verkar gälla galaxerna i det expanderande universum finns
alltså inget centrum i universum. Oavsett från vilken galax vi observerar
universums expansion så ser den (i medeltal) likadan ut. Detta kallas för
den kosmologiska principen: på riktigt stora avstånd är universum
likadant överallt (homogent) och i alla riktningar (isotropt). Man ska dock
komma ihåg att den kosmologiska principen är ett antagande som verkar
vara uppfyllt så vitt vi kan se med dagens (begränsade) observationer.
Det finns inget som hindrar att antagandet kan visas vara falskt i
framtiden, när man får allt bättre och kraftfullare observationsmetoder.

Expansionen har två effekter på stjärnljuset. För det första sprids ljuset
på en area som är större än vi antog (när ljuset äntligen når fram har ju
bubblan ökat sin storlek pga. expansionen). För det andra dras själva
ljuset ut, dess våglängd expanderar i takt med universum. Man vet också
att när ljusets våglängd ökar så minskar dess energi (rött ljus med lång
våglängd har mindre energi än blått ljus med kortare våglängd). Ljusets
intensitet späds alltså ut pga. båda dessa effekter. Eftersom vi idag
också vet att stjärnorna har en begränsad livslängd (stora ljusstarka
stjärnor lever kortare än små ljussvaga) så sänder de bara ut en
begränsad mängd ljusenergi under sin livstid. När man kombinerar
effekterna från expansionen med stjärnornas livstid får man resultatet att
himlen är mörk på natten. De små ljusprickarna av stjärnor som trots allt
syns med blotta ögat ligger alla i vår egen galax, och dessutom väldigt
”nära” vårt solsystem med astronomiska mått mätt.

Astrofysik vs Kosmologi

Lite förenklat kan man säga att astrofysik försöker förklara astronomiska
fenomen genom att använda kända fysiklagar. (En förhoppning är också
att man, genom att studera extrema fenomen i universum, ska hitta helt
nya naturlagar.) Kosmologi är läran om universum som helhet; dess
ursprung, utveckling och slutliga öde. Inom kosmologi, och stora delar av
astrofysiken, är gravitation den dominanta kraften. Trots att gravitationen
är absolut svagast så har den en egenskap som ingen annan kraft har:
den är alltid attraktiv. (Med möjlig modifiering för ”mörk energi”, se
nedan.) Detta innebär att gravitationen alltid adderar så att den till slut
övervinner alla andra krafter, men bara om det finns tillräckligt med
materia och/eller energi. För alla storskaliga strukturer i universum:
solsystem, galaxer, galaxhopar, är gravitationen helt dominant. Om man
ska vara petig så är ju gravitationen ingen kraft alls, enligt Einstein, den
är en effekt av att materia & energi kröker rumtiden. Därför talar man idag
om relativistisk kosmologi, eftersom gravitationen, d.v.s. universums
rumtid, beskrivs av Einsteins allmänna relativitetsteori.

CMBR – Det äldsta fotografiet vi kan ta


(COBE/WMAP)

Universum är fyllt av restvärme från Big Bang (stora skrällen). Den kallas
Cosmic Microwave Background Radiation (CMBR eller CBR) – kosmisk
mikrovågsbakgrundsstrålning, eftersom strålningen idag har högst
intensitet i just mikrovågsområdet. Detta bakgrundsljus hade en
temperatur på 3 000 grader då universum för första gången blev
genomskinligt för ljus ca 400 000 år efter dess födelse (Big Bang). Innan
dess bestod universum av ett plasma, mestadels joniserad vätgas, som
ljus inte kan färdas fritt igenom. Då universum, genom expansionen, kylts
tillräckligt blev plasmat till neutral vätgas och universum blev
genomskinligt. Universum har sedan dess utvidgats ungefär 1 000
gånger i storlek, vilket också medfört att temperaturen på
bakgrundsstrålningen sjunkit 1 000 gånger. Universums temperatur är
alltså idag ca 3 grader över absoluta nollpunkten, vilket motsvarar minus
270 grader Celsius.
Eftersom universum var ogenomskinligt för ljus innan
bakgrundsstrålningen släpptes fri, så är den ett avtryck, eller ett fossil, av
hur universum såg ut då det var 400 000 år ungt. Med andra ord är
CMBR det äldsta fotografiet vi kan ta av universum (i ljus, med hjälp av
neutriner, kan man kanske i framtiden ta ett ”fotografi” av hur universum
såg ut efter en enda sekund).
1964 upptäcktes detta osynliga bakgrundsljus från universum av en
ren slump av Arno Penzias och Robert Wilson (de var egentligen i färd
med att mäta något helt annat). Detta illustrerar det ständigt
återkommande temat att de allra största upptäckterna inom vetenskapen
oftast kommer till av en ren slump.
Med hjälp av satelliten COBE (COsmic microwave Background
Explorer) kunde John Mather och George Smoot under tidigt 1990-tal
bestämma bakgrundsstrålningens, d.v.s. universums, temperatur med
stor noggrannhet: 2,725 grader Kelvin. Trots att detta är extremt kallt kan
man idag enkelt skapa mycket lägre temperaturer i labbet.
Med start år 2003 mätte satelliten WMAP (Wilkinson Microwave
Anisotropy Probe) upp små, små skillnader i temperatur hos
bakgrundsstrålningen, d.v.s. hos universum då det var 400 000 år. Detta
innehåller en mängd information, bland annat om universums totala
energi. Dessutom är de områden som är lite hetare än andra de ”frön” av
täthet över medel som sedan, genom gravitation, automatiskt dragit ihop
sig till dagens superhopar av galaxer.
Den kosmiska bakgrundsstrålningen är också en av tre ledtrådar till
varför vi tror att universum startade ur ingenting i en ”stor skräll” (Big
Bang) för ca 14 miljarder år sedan. De två andra ledtrådarna är
universums expansion som upptäcktes av Edwin Hubble på 1920-talet,
och andelen helium i universum (som kokades ihop under universums
första minuter, innan expansionen automatiskt gjorde att det blev för kallt,
vilket resulterade i 75 % väte, 25 % helium och nästan inget annat, precis
vad vi ser i universum idag).

Äldre ”bilder”av universum? (Neutriner &


gravitationsvågor)

Idag är det omöjligt att se tillbaka till, eller ta bilder av universums


tidigaste barndom. Den kosmiska mikrovågsbakgrundsstrålningen
(CMBR), som är det äldsta möjliga normala fotot av universum visar ju
hur universum såg ut 400 000 år efter födelsen.
Men precis som det finns en reststrålning i ljus (fotoner) tror man
teoretiskt att det ska finnas reststrålning av både neutriner och
gravitationsstrålning (gravitoner) som bägge bör ha skapats i kopiösa
mängder i Big Bang. Neutriner och gravitoner växelverkar knappt alls
med materia, vilket innebär att universum blev genomskinligt för dessa
båda typer av strålning extremt mycket tidigare än 400 000 år efter
skapelsen. Nackdelen är att just eftersom de är så ovilliga att reagera så
har vi heller inte lyckats upptäcka någon av dessa reststrålar från Big
Bang med dagens teknologi. En del forskare säger till och med att det
aldrig kommer att vara möjligt, men man ska akta sig noga för att säga
att något är omöjligt inom vetenskap… Wolfgang Pauli, som uppfann
neutriner teoretiskt 1930, sa själv att de aldrig skulle kunna upptäckas
genom experiment. 1956 upptäckte Frederick Reines och hans
medarbetare neutriner (från en kärnreaktor) experimentellt.
Om man lyckas detektera neutriner från Big Bang så får man
information om hur universum såg ut endast en sekund efter födelsen,
eftersom universum redan då blev genomskinligt för neutriner.

Om man lyckas upptäcka gravitationsvågor från Big Bang så får man ett
”fotografi” av hur universum såg ut 10-30 sekunder efter födelsen! Det är
0,000000000000000000000000000001 sekund efter skapelsen själv.

Mörk materia & mörk energi


Det finns indirekta indikationer på att det finns massvis med ”mörk”
osynlig materia i universum. Hittills har man tre ledtrådar som visar på
detta:
1. Spiralgalaxer snurrar alldeles för fort för att de ska kunna hålla ihop
med hjälp av gravitation från enbart den synliga ”normala” materien. Det
måste finnas en stor mängd mörk, ”exotisk” okänd materia i dem som
motverkar att de slits sönder av sin egen rotation. En typisk spiralgalax
verkar innehålla ungefär 10 ggr så mycket mörk materia som synlig!
Ytterligare ett mysterium är att den andra huvudtypen av galax (elliptiska
galaxer) inte tycks behöva någon mörk materia alls.
2. Galaxerna i galaxhopar rör sig för snabbt för att hopen ska kunna
hålla samman. Återigen behövs mörk materia för att hålla ihop den!
Andelen mörk materia som krävs i galaxhoparna verkar vara ännu större
än den som krävs inom enskilda spiralgalaxer. Oberoende mätningar av
galaxhopars massa med hjälp av ”gravitationslinsning”4 tyder på ungefär
samma andel mörk materia i galaxhopar som den man får från deras
rörelser.
3. Mätningar på hela universum, bland annat genom att mäta på
mikrovågsbakgrundsstrålningen – efterglöden från Big Bang, och
utseendet på enorma storskaliga strukturer, som kosmologiska tomrum
(voids) och filament – repliknande strukturer som alla kända galaxer
ligger längs, tyder också på att andelen mörk materia måste vara många
gånger större än den synliga, normala materien.

Det finns många kandidater för mörk materia, framförallt hypotetiska


partiklar från otestade teorier inom partikelfysiken. Problemet är att man
ännu aldrig har sett dessa partiklar i experiment på jorden. Än så länge
finns det alltså bara indirekta astrofysikaliska & kosmologiska indikationer
på mörk materia. Men jakten fortsätter eftersom en förståelse av
materien i universum och (minst) ett Nobelpris står på spel…
Ett alternativ till mörk materia som också föreslagits är att naturen
kanske beter sig annorlunda än vi (och Newton och Einstein) tror på
riktigt stora avstånd och/eller för låga accelerationer. I så fall behövs
ingen mörk materia alls. Den mest kända teorin av detta slag kallas
MOdified Newtonian Dynamics, ”MOND”.

Mörk energi är något helt annat än mörk materia. Astronomiska


mätningar sedan 1998 visar att det verkar finnas en repulsiv,
frånstötande gravitationskraft, som enbart är verksam på de allra största
kosmologiska avstånden, d.v.s. den märks bara då man studerar hela
universum. Till skillnad från mörk materia så finns det inte ens några
(hypotetiska) förslag till vad mörk energi kan vara. Det är visserligen
enkelt att stoppa in en term som representerar mörk energi i Einsteins
fältekvationer (allmän relativitetsteori) och på så vis återskapa det
beteende man tycker sig se, men det finns ingen fysikalisk förklaring alls
av den underliggande mekanismen. Den vanligaste termen man
använder kallas för den ”kosmologiska konstanten” (som redan Einstein
införde, fast av annat skäl än idag) som är en konstant energidensitet hos
vakuum (d.v.s. tomrummet självt). En annan term kallas ”kvintessens”
och är i stället tidsberoende, d.v.s. ändras då universum åldras. Bägge
dessa har ”negativt tryck” som ger upphov till en repulsiv gravitationskraft
i Einsteins fältekvationer, vilket är omöjligt för all känd materia och
strålning. Den mörka energin kan alltså inte förklaras av någon partikel
eller strålning vi känner till, eller ens av dem som är föreslagna men som
inte hittats/finns.

Synlig, normal materia tycks enligt de senaste kombinerade


observationerna utgöra enbart 4 % av universums energiinnehåll. 23 %
verkar vara exotisk, okänd mörk materia. Resterande 73 % tycks vara
mystisk mörk energi som vi inte har någon som helst förklaring för.
På 1970-talet trodde man sig veta vad 100 % av universum bestod av.
Idag vet vi vad 4 % av universum består av. Om trenden håller i sig borde
det betyda att vi snart inte vet någonting alls om innehållet i universum…
Detta är dock typiskt för ett forskningsfält i så stark utveckling som
kosmologin är. För varje fråga man besvarar dyker det upp tio nya som
ett brev på posten.

Viktiga personer

Albert Einstein – formulerar allmän relativitetsteori, vår moderna teori för


gravitation (1915). Föreslår ett modifierande tillägg till sin teori, den
”kosmologiska konstanten” (1917), för att möjliggöra ett statiskt,
oföränderligt universum som då var den rådande världsbilden.

Georges Lemaitre – föreslår den ursprungliga Big Bang-teorin (1927),


att universum skapats från ett ”urägg”.

Edwin Hubble – upptäcker andra galaxer, d.v.s. att vår galax inte är hela
universum (1924).
Upptäcker att universum expanderar (1929), vilket gör den
”kosmologiska konstanten” onödig och får Einstein att kalla den för sitt
livs största blunder.

Alexander Friedmann, Howard Robertson & Arthur Walker –


formulerar (1922–1935) den ”standardmodell” inom kosmologin som
används än idag. Förutsätter att den ”kosmologiska principen” gäller för
universum som helhet, d.v.s. att på de allra största avstånden varje del
av universum (statistiskt sett) är likadan som alla andra.

Fritz Zwicky – föreslår ”mörk materia” för att förklara att galaxhopar
tycks rotera ”för fort” kring sitt masscentrum (1933).

George Gamow – räknar ut att ett universum som började i en Big Bang
måste resultera i en ”restglöd” som idag bör ha en temperatur på 5 Kelvin
(1948). Detta teoretiska resultat glöms sedan raskt bort i drygt 15 år…

Arno Penzias & Robert Wilson – upptäcker den kosmiska


bakgrundsstrålningen, en avsvalnad rest från Big Bang (1965). Nobelpris
1978.

Alan Guth – föreslår en extremt snabb och kortvarig expansionsfas,


”inflation”, i det mycket tidiga universum (1980). Detta gör att ett mycket
litet område otroligt snabbt blåses upp till det som idag är hela vårt
observerbara universum. Även om Guths ursprungliga motivation var att
förklara varför exotiska partiklar från så kallade Grand Unified Theories
(GUT) i partikelteorin inte observeras hos oss idag är inflationen numera
mest känd för att råda bot på flera gåtor i den ursprungliga Big Bang-
modellen, bland annat hur universum kan ha samma temperatur överallt.
John Mather & George Smoot – mäter universums temperatur med
mycket hög noggrannhet. Universum visar sig vara en nästan perfekt
svartkroppstrålare med en temperatur på ca 3 Kelvin. Ser också för första
gången (små) temperaturfluktuationer i CMBR. Nobelpris 2006.

Supernova Cosmology Project & High-Z Supernova Search Team


(1998) – observerar, helt oväntat, att universums expansionstakt tycks
öka i stället för att minska som alla dittills trott, eftersom gravitationen
normalt fungerar som en ”broms”. Tyder på att mystisk ”mörk energi” idag
dominerar universum, vilket leder till en renässans för Einsteins
kosmologiska konstant. Nobelpris 2011.

Grundläggande ekvationer

Friedmann–Robertson–Walker-metriken (FRW-metriken), den unika


lösningen till Einsteins ekvationer under antagandet att universum är lika
överallt (homogent) och i alla riktningar (isotropt) på kosmologiska
längdskalor. Detta antagande kallas ”den kosmologiska principen”. FRW-
metriken beskriver universums fyrdimensionella (rum + tid) geometri:

Friedmanns ekvationer, beskriver det idealiserade FRW-universums


dynamik, som helt och hållet innehålls i den ”kosmiska skalfaktorn”,
a=a(t), vilken definierats i metriken ovan och är ett mått på hur
”tomrummet” i universum expanderar. Friedmanns ekvationer är extremt
förenklande specialfall av Einsteins allmänrelativistiska ekvationer, som
enbart gäller under antagande av den kosmologiska principen:
Kosmologiska rödskiftparametern, z:

Hubbles lag:
v = H0 d

där H0 = Hubbles konstant, v = hastighet, d = avstånd


Strängteorin på 15 minuter –
teorin om allt … eller inget?

Fysik är läran om naturen. En teori som ännu inte testats mot fenomen i
naturen själv är därför (ännu) inte en fysikalisk teori. Det finns ett otal
exempel på historiska gissningar om hur naturen ”borde” bete sig som
visade sig vara helt fel när de väl kunde testas experimentellt. Det finns
ingen anledning att tro att det är annorlunda idag. Ha gärna detta i åtanke
när ni hör talas om de senaste ”revolutionerande” men otestade teorierna
för universums mysterier, som bland annat detta kapitel handlar om.
Strängteorin har som ett av sina huvudmål att lösa det allra största
problemet inom den teoretiska fysiken; att förena kvantmekaniken med
den allmänna relativitetsteorin, det vill säga att konstruera den saknade
teorin för kvantgravitation. Det andra målet är att förena alla de fyra
kända naturkrafterna till en enda, det vill säga att visa att alla
kraftförmedlarpartiklar (bosoner) i själva verket genereras av olika
vibrationer på den fundamentala enheten, strängen. Det tredje målet är
att även beskriva alla materiepartiklar (fermioner) som svängningar på
strängen. Om dessa tre mål uppfylldes skulle man ha en ”teori om allt”,
eftersom den skulle förklara rumtiden själv (det vill säga gravitationen)
och alla partiklar och krafter i den. De fundamentala byggstenarna inom
strängteorin är alltså endimensionella vibrerande strängar, men djupare
studier av strängteorin har visat att den inte bara beskriver strängar utan
även punktlika objekt och så kallade (mem)bran med högre
dimensionalitet.
Problemet är att allt detta enbart gäller för de extremaste förhållanden
man kan tänka sig, till exempel när universum just uppstått. I dagens
universum har krafterna för länge sedan spjälkats ut till fyra separata
krafter, och partiklarna har kondenserat ut till alla de distinkta sorter vi ser
i partikelfysikexperiment. För att återskapa det förenade tillståndet med
hjälp av dagens teknologi skulle det krävas en partikelaccelerator större
än hela vår galax. Idag liknar strängteoretiker därför mer de filosofer som
under den mörka medeltiden i Europa hellre debatterade hur många
änglar som får plats på ett nålhuvud, samtidigt som astronomer i bland
annat Kina redan gjorde detaljerade observationer av verkliga
exploderande jättestjärnor, supernovor.
Det är heller inte känt om strängteori kan beskriva ett universum med
exakt de krafter och partiklar som verkligen existerar, det vill säga om
man från teorin kan härleda fram de olika kvantfält som utgör den
experimentellt testade standardmodellen i partikelfysiken. Det är också
oklart hur mycket frihet att välja dessa detaljer som teorin tillåter – om
strängteorin ska kunna fungera som en ultimat ”teori för allting” måste
standardmodellen poppa ut som en unik lösning.
Ytterligare ett problem är att strängteorin än så länge bara formulerats
approximativt. Det finns alltså ingen entydig och exakt strängteori, utan
snarare oräkneligt många olika.
På senare tid har strängteorin även utsatts för annan kritik, främst av
Lee Smolin som själv är gammal strängteoretiker och vars
huvudargument är att den mer är en produkt av sociologiska mekanismer
än av vetenskaplig forskning. Smolin menar att många av dagens
ledande forskare indirekt skulle ha valt att arbeta med strängteorin för att
man idag ”måste” välja den om man vill göra akademisk karriär inom den
teoretiska fysiken, då nästan alla nyutlysta tjänster i USA och världen
handlar om strängteori.

Strängteorins ursprung

Strängteori har funnits sedan slutet på 1960-talet. Från början var den
tänkt som en teori för hur protoner, neutroner, och andra kärnpartiklar
växelverkar. Med utvecklandet av QCD – Quantum ChromoDynamics
”kvantkromodynamik”, kvantfältteorin som beskriver ”färgkraften”5 mellan
kvarkar, dog denna ambition och alla utom en handfull forskare övergav
strängteorin. Det förnyade intresset för strängteori kom av att man på
1970-talet insåg att en tidigare oönskad egenskap i stället kunde bli en
tillgång. Man hade länge känt till att strängteorin automatiskt innehöll
många extra partiklar, bland annat en masslös spinn-2-partikel. Denna
fanns det inget utrymme för i kraften mellan protoner och neutroner, men
om man omtolkade den som en graviton, d.v.s. kraftpartikeln för
gravitation, fick man plötsligt en möjlig kandidat för en sammanslagen
”teori för allting”. Detta är den stora visionen som driver strängteoretiker,
möjligheten att hitta en enda ur-teori som allt i universum beskrivs av.
Inte bara partiklar och krafter utan till och med rumtiden själv kan tänkas
beskrivas av denna teori, eller snarare dess moderna efterföljare, M-
teorin. Tanken är att det bara finns en typ av sträng, naturens mest
fundamentala beståndsdel. Beroende på hur den svänger blir resultatet
en elektron, en kvark, en foton, eller vilken som helst av materie- eller
kraftpartiklarna. Eftersom det finns oändligt många sätt som strängen kan
svänga på finns det också, enligt strängteori, ett oändligt antal partiklar.
Tyvärr bör alla dessa väga minst runt en Planckmassa, ungefär lika
mycket som en bakterie, vilket är väldigt lite för oss, men ofattbart mycket
för en elementarpartikel. Detta är ett av många olösta problem inom
strängteorin, varför de partiklar vi verkligen ser i experiment har de
massor de har och är så gott som masslösa jämfört med strängteorins
naturliga massenhet, planckmassan. Strängteorin är numera helt
integrerad med Supersymmetri (SUSY) och kallas därför
Supersträngteori.

Man ska komma ihåg att strängteori än så länge bara är en spännande


möjlighet, det finns inga bevis alls för att strängteori är något som
beskriver naturen. Inga fysikaliska fenomen överhuvudtaget har hittills
förklarats med hjälp av strängteori, vilket i sig är lite märkligt med tanke
på att den funnits i snart 50 år och att tusentals fysiker i världen sysslar
med den. Faktum är att strängteori idag inte är en fysikalisk teori alls,
eftersom den inte testats mot experiment. Troligen kommer den heller
inte att kunna testas genom direkta experiment under överskådlig
framtid. Däremot finns det förslag på indirekta tester av den. Ett av de
mest lovande är att studera subtila tecken på strängar genom
kosmologiska observationer. Trots att effekterna av strängar är löjligt små
så adderas de med avståndet. Om man alltså observerar objekt och
fenomen på riktigt stora avstånd (i stil med hela vårt synliga universum)
finns det en chans att se dessa effekter redan med dagens teknologi.
Ännu har man inte sett något…
Som supersträngteorins stora paradnummer brukar annars nämnas att
man med hjälp av denna lyckats räkna ut entropin, ”oordningen”, för ett
svart hål, d.v.s. det svarta hålets temperatur, och därigenom
reproducerat Hawkings halvklassiska resultat från 1974, där han
”klistrade på” kvanteffekter på svarta hållösningen från allmän
relativitetsteori. Man har dock aldrig mätt temperaturen på ett svart hål.
Därför är denna ”framgång” bara ett exempel på hur man jämför
resultatet av en hypotetisk teori med resultatet från en ännu mer
hypotetisk teori, ingen riktig fysik. Strängteoretiker har dessutom själva
sedan länge insett att supersträngteorin inte kan vara det slutliga svaret.
Bland annat så kan strängteorin inte förklara uppkomsten av rum och tid,
eftersom strängarna rör sig i en ”bakgrund” av klassisk rumtid som man
lånar från Einstein. Man omöjliggör alltså redan från början, genom
antagandet, drömmen om att förklara hur gravitationen (den krökta
rumtiden) uppkommer från strängteorin eftersom man bara vet hur man
ska handskas med strängarna om de utgör små ”störningar” på en given
rumtidsbakgrund. Dessutom finns det många olika strängteorier som alla
verkar vara lika bra, inget gott tecken för en teori där tanken från början
var att den skulle vara unik och förklara allt. Därför söker man nu efter en
teori som ligger bakom allt, och som fått namnet M-teori. Tyvärr finns inte
mycket mer än namnet ännu, och man har inte ens lyckats enas om vad
förkortningen M står för.

Extra dimensioner

Den ursprungliga ”bosoniska” strängteorin krävde 26 dimensioner för att


gå ihop matematiskt, den mer moderna supersymmetriska varianten
behöver 10 dimensioner, medan M-teorin har 11 dimensioner. Detta
verkar minst sagt märkligt med tanke på att universum bara har 4
dimensioner (3 rumsdimensioner och 1 tidsdimension). Den ursprungliga
lösningen knycktes från Theodore Kaluza och svensken Oskar Klein som
redan på 1920-talet föreslagit extra dimensioner, hopkrullade i så små
nystan att de är osynliga för oss, i ett försök att förena
elektromagnetismen med allmän relativitetsteori – det vill säga alla de då
kända krafterna – i en enda ”storförenad teori”. Strängarnas extra
dimensioner antogs vara hopkrullade, ”kompaktifierade”, i nystan av en
Plancklängds storlek (10-35 meter, 1020 ggr mindre än en atomkärna).
Däremot fanns, och finns fortfarande, ingen förklaring till hur och varför
just våra normala 4 dimensioner ”blir över” utan att krullas ihop…
Sedan några år tillbaka har man också börjat studera möjligheten för
att det skulle kunna finnas mycket större extra dimensioner, men som
enbart gravitationen har tillgång till. Det skulle då också kunna förklara
varför gravitationen, sett från vår 4-dimensionella synvinkel, är så svag.
Egentligen kan gravitationen då vara jämförbar i styrka med de andra
krafterna, den späds bara ut genom att skickas in i alla de andra extra
dimensionerna. Stora extra dimensioner är intressanta av många andra
skäl, bland annat för mörk materia, men lider av samma brist som
strängteorin själv, idén är ännu inte testad mot experiment. Genom
indirekta tester med hjälp av Newtons gravitationslag har man kommit
fram till att de ”stora” extra dimensionerna i alla fall måste vara mindre än
0,1 millimeter, vilket är gränsen för dagens bästa experiment.

Vad är väl en teori på slottet?

Till och med professionella fysiker blandar ibland ihop vår beskrivning av
naturen med naturen själv. Fysiklagarna är vårt sätt att enkelt och
kompakt beskriva och sammanfatta hur naturen har visats uppföra sig,
åtminstone så långt vi hittills kunnat testa. En ganska bra liknelse är att
naturlagarna är som kartor. Ingen skulle komma på tanken att missta
själva kartan för naturen, men det är ibland vad som händer inom
fysiken. Kartan är användbar eftersom den på ett enkelt och åskådligt
sätt sammanfattar de viktigaste aspekterna av naturen. En karta som är
lika utförlig som naturen själv skulle inte fylla någon funktion alls,
eftersom man då lika gärna kunde studera originalet, naturen, direkt.
Därför kan man ställa sig frågande till fysikens moderna ”heliga graal”, en
storförenad ”teori för allting” (theory of everything). En karta uppdateras
alltid när nya fakta blir kända. Detsamma kommer troligen att för alltid
gälla naturlagarna, de måste skrivas om när fler fakta successivt blir
kända. Givetvis ska man ändå fortsätta forska på ett så lovande spår
som supersträngteori, men idag är en oproportionerligt stor andel av alla
teoretiska fysiker uppbundna av en teori som kanske inte har något som
helst samband med naturen och det verkliga universum. Kom ihåg, fysik
är läran om naturen, inte läran om teorier. Som så träffande sagts: “The
history of physics is littered with the corpses of dead theories.” –
”Fysikens historia kantas av liken av döda teorier.”

Faktaruta

SUSY är en förkortning av ”supersymmetri”. Det är en symmetri som


matematiskt upptäcktes i början av 1970-talet och som på ett snillrikt sätt
generaliserar rumtidssymmetrin i Einsteins speciella relativitetsteori
genom att i varje punkt utöka den genom att, tillsammans med rumtidens
bosoniska egenskaper, även tillåta ”interna” fermioniska storheter.
Dagens tillämpning finns främst inom teorin för elementarpartiklar.
Supersymmetri är också inbyggd i supersträngteorin. SUSY säger att
varje partikel ska ha en supersymmetrisk partner. I ett slag fördubblas
alltså antalet partiklar. Huvudorsaken till att SUSY införs är att den botar
vissa matematiska problem (bland annat oändligheter) man har i teorier
utan SUSY. Inga supersymmetriska partiklar har ännu hittats. Något som
brukar tas som ett indirekt stöd för strängteorin vore en experimentell
upptäckt av supersymmetri. LHC vid CERN har som ett av sina huvudmål
att söka efter de hypotetiska ”superpartnerpartiklarna” som är oundvikliga
i supersymmetrin. Om dessa partiklar inte upptäcks med LHC eller
kommande partikelacceleratorer och supersymmetrin därigenom visas
inte existera i naturen faller också många strängteorier, däribland de fem
mest framstående supersträngteorierna, M-teorin och alla teorier som
kräver supersymmetri.

Viktiga personer

Gabriele Veneziano – jobbade i slutet av 1960-talet på en teori för den


starka kärnkraften, den ”duala resonansmodellen”, för att förklara de
stora mängderna obegripliga experimentdata som strömmade ut ur
partikelacceleratorerna. När kvantkromodynamiken (QCD) utvecklades
under tidigt 1970-tal visade den sig vara mycket bättre för att beskriva
den starka kärnkraften. Venezianos modell blev i stället ”urmodern” till
dagens strängteori (1968).

Yoichiro Nambu – insåg att Venezianos teori beskrev kvantmekaniska


strängar (1970).

Pierre Ramond – införde för första gången supersymmetri i strängteorin.


Supersträngteorin föds (1971). Supersymmetri kan förenklat beskrivas
som hur materia (fermioner) och krafter (bosoner) är relaterade till
varandra. Den säger bland annat att materiepartiklar och kraftpartiklar
ska ha samma massa. Eftersom denna relation inte ses i experiment
måste supersymmetrin idag vara bruten. Ingen vet än idag riktigt hur.

John Schwarz & Joel Scherk – insåg 1974 att en oönskad masslös
spinn-2 strängexcitation som ställer till problem för strängteorin som stark
kärnkraft (eftersom kärnkraften då skulle ha oändlig räckvidd i strid med
observationer) i stället ”automatiskt” kan inkludera gravitation om
excitationen identifieras med gravitonen, gravitationens hypotetiska
kraftpartikel. Detta är startskottet till drömmen om en unifierad ”teori för
allting”, en sammanslagning av alla fyra krafter i naturen till en enda
”urkraft”.

Michael Green & John Schwarz – visade 1984 hur vissa allvarliga
matematiska problem (så kallade anomalier, som skulle göra strängteorin
oanvändbar för beräkningar) inom strängteorin kunde lösas, men bara
om dimensionerna utökades från de kända fyra till tio. Detta var också
startskottet för det explosionsartade intresset för strängteori, innan dess
arbetade bara en handfull entusiaster på den.

Edward Witten – gissade i mitten på 1990-talet att de många varianterna


av strängteori kan förenas i en ”superduperteori” (med ännu en
dimension, d.v.s. elva totalt) som fått namnet M-teori. Ännu finns dock
inte mycket mer än namnet, man kan inte ens enas om vad bokstaven M
står för.

Joseph Polchinski – upptäckte i mitten av 1990-talet att strängteorin


faktiskt kräver/förutsäger membranliknande objekt, så kallade p-branes
(pea-brains = ärthjärnor) och d-branes, med dimensioner högre än en
strängs (som ju har dimensionen 1, på grund av att den bara har längd).

Juan Maldacena – föreslog 1997 att strängteori och ”normal”


kvantfältteori av en speciell typ kan vara två aspekter/beskrivningar av
samma sak. Denna gissning har fått namnet ”AdS/CFT
korrespondensen”.

Grundläggande ekvationer

En fri ”bosonisk” sträng med strängspänningen α’ som rör sig genom flat
rumtid sveper ut en ”världsyta”. Punkterna på denna tvådimensionella yta
beskrivs med de två koordinaterna τ och σ. Dess ”verkan” S (som
kvantiseringen av strängen baseras på och som man bland annat kan
härleda rörelseekvationerna ur) ges av.

För en super(symmetrisk)sträng är rumtidskordinaterna X, de ”bosoniska”


storheterna i teorin, relaterade till fermionfälten ψ via supersymmetri
Kvantgravitation på 15 minuter –
fysikens ofullbordade…

Den teoretiska fysikens allra största olösta problem är hur gravitation och
kvantfysik ska fås att samexistera under samma teoretiska ”paraply”.
Med andra ord, hur man ska integrera allmän relativitetsteori med
kvantfysik i en och samma teori. Många tror att kvantfysiken ska
bibehållas mer eller mindre oförändrad som den är i denna
sammanslagning, och att det är allmän relativitetsteori som måste
modifieras. Men en del, med den kände brittiske matematikern och
fysikern Roger Penrose i spetsen, anser i stället att den allmänna
relativitetsteorin är mer fundamental och att det är kvantfysiken som
måste omformuleras så att föreningen blir möjlig.

Kvantgravitation krävs, förutom för att göra hela fysiken logiskt


sammanhängande, också för att kunna besvara en mängd olösta gåtor:
Hur uppstod universum? Fanns tiden innan? Vad händer egentligen i ett
svart hål (singulariteten är så gott som säkert ett tecken på att den
klassiska teorin där bryter samman och blir oanvändbar, inte att naturen
verkligen är singulär). Försvinner information i ett svart hål? Finns de
alls? Vad är mörk energi? Finns den? Hur och varför uppkommer alla de
drygt tjugo parametrarna i partikelfysikens standardmodell som idag inte
kan förklaras alls?

Problemet är att kvantfysiken och den allmänna relativitetsteorin redan


nu överlappar varandras områden, utan att passa ihop. De övriga tre av
de fyra kända naturkrafterna (svag och stark kärnkraft, samt
elektromagnetism) är alla beskrivna med hänsyn till kvantfysiken och
ingår i partikelfysikens så kallade standardmodell. Även om
samexistensen av speciell relativitetsteori/kvantfysik inte är friktionsfri så
har man hittat ett sätt att behandla dem samtidigt i det som kallas
”kvantfältteori”. Tyvärr har samma metoder aldrig fåtts att fungera då
allmän relativitetsteori ska slås ihop med kvantfysiken. Det största
problemet med kvantgravitation, ur en naturvetenskaplig synvinkel, är att
man inte kan göra de experiment som krävs. Då kvantgravitationens
effekter är omöjliga att idag observera i kontrollerade, aktiva experiment,
eftersom energin som krävs ligger skyhögt över den som kommer att
vara tillgänglig under överskådlig framtid, kan man inte jämföra teoriernas
förutsägelser (i de få fall man ens kan beräkna dem) med observationer
av naturen. Till exempel skulle en partikelaccelerator som bygger på
dagens teknik behöva vara större än hela vår galax för att kunna testa
effekterna. Det innebär att kvantgravitation idag inte är naturvetenskap i
egentlig mening. Ingen experimentell input existerar som kan styra
teoretiska idéer, och historiskt vet vi att då sker teoretiska ”framsteg”
oftast i helt fel riktning. Det finns förslag på hur man indirekt ska kunna se
kvantgravitationella effekter (”stora” extra dimensioner/avvikelser från
Newtons gravitationslag, kosmisk strålning, ljus från gammablixtar,
variationer i ljushastigheten, svarta minihål i partikelacceleratorer,
effekter i gravitationsvågor etc.), i till exempel kosmologiska
observationer, men än så länge vet ingen riktigt hur man ska vaska fram
det väsentliga.

Idag finns två huvudspår man följer och som man hoppas ska leda till en
fungerande teori för kvantgravitation:

Supersträngteori/M-teori

Sträng/M-teorin har sitt ursprung i partikelfysik, det vill säga den är


partikelfysikernas sätt att angripa fysikens heliga graal. Redan 1930
skrev Leon Rosenfeld för första gången ner ekvationerna som gäller då
gravitationen analyseras som ett ”vanligt” kvantfält, faktiskt redan strax
efter Paul Dirac skapade kvantfältteorin, som var en utvidgning av hans
egen relativistiska ekvation, Dirac-ekvationen, för atomen. Problemet var
att på den tiden kunde kvantfältteorin ännu inte användas för detaljerade
beräkningar, den förutspådde alltid oändligheter, givetvis i total kontrast
mot de experiment man gjorde. Kvantgravitationen var inget undantag.
Under 1940-talet lyckades man, efter hårt arbete, ta fram en fungerande
(men långt ifrån perfekt) lösning, så kallad renormering, för
kvantelektrodynamik (QED), vilket blev den första fungerande
kvantfältteorin, dessutom i perfekt överensstämmelse med alla
experimentella resultat. Richard Feynman, Sin-Itiro Tomonaga och Julian
Schwinger fick så småningom (1965) nobelpris för att de fått speciell
relativitetsteori och kvantfysik att ”fredligt samexistera” för den
elektromagnetiska växelverkan. Under 1970-talet sattes sista spiken i
kistan för hoppet att kvantfältteori kanske ändå skulle kunna användas
för kvantgravitation, då man visade att teorin är icke-renormerbar. Man
behöver med andra ord ett oändligt antal renormeringskonstanter (jämfört
med bara två för QED) för att kunna få ut exakta resultat ur
kvantgravitation, vilket förstås innebär att teorin ur praktisk synvinkel är
meningslös.
Ursprunget till oändligheterna som uppstår är att partiklarna är punkter
och därigenom kan växelverka med sig själva i en och samma punkt. De
slutna ”slingor” av kraftpartiklar som då uppstår orsakar oändligheterna.
Under 1970-talet trodde man att introduktionen av supersymmetri kunde
ta bort oändligheterna, vilket innebar att man började studera
”supergravitation”, gravitation där varje materiepartikel fick en
supersymmetrisk kraftpartikel och tvärtom, och där man hoppades att de
olika slingorna skulle ta ut varandra. Den förhoppningen grusades dock
snart.
Hur hjälper då strängteori? Jo, eftersom de fundamentala
beståndsdelarna i den antas vara strängar, inte punkter, försvinner
oändligheterna automatiskt, åtminstone för varje enskild term i den
successiva serien av approximationer. När man lägger ihop alla bidrag i
hela serien (oändligt många) blir slutresultatet fortfarande oändligt, vilket
är ett olöst problem inom strängteorin. Strängteorin antar också att alla
partiklar och krafter egentligen bara är olika vibrationer på den mer
fundamentala strängen, som alltså enligt antagandet är den verkliga
beståndsdelen hos allt i universum. Tyvärr är strängteorin bara en
ungefärlig lösning, man utgår från en given rumtidsbakgrund där
strängarna representerar små, oväsentliga ”störningar” i rumtidens
geometri. Därigenom diskvalificerar man redan från början också teorin
från att, på riktigt, beskriva kvantgravitation, eftersom det skulle kräva att
strängarna själva skulle ”väva ihop” hela rumtiden och inte bara vara en
korrektion till en klassisk (icke-kvantmekanisk) lösning. Därför tror inte
strängteoretiker längre att strängteorin är det slutliga svaret. I stället tror
man att det finns en ännu mer fundamental teori som man kallar för M-
teori, som på något sätt ska få ihop allting. Tyvärr finns inte den teorin
ännu, men man gissar att den är en teori om membran, minimala
vibrerande trumskinn i två, och flera, dimensioner eftersom man sedan
några år har upptäckt att sådana redan uppträder i den ursprungliga
strängteorin. Man talar ibland skämtsamt om ”the theory formerly known
as strings…”
Ytterligare en lockelse med strängteori är att den har potential att
förena alla partiklar och krafter till en enda, men än så länge är det bara
en teoretisk möjlighet eftersom ingen visat att de (från experiment) kända
partiklarna och de tre icke-gravitationella krafterna kan resultera ur
strängteorin.
Om M-teorin klarar både detta och att skapa en fungerande teori för
kvantgravitation har man uppnått vad strängteoretiker lovade redan på
1980-talet; en stor-förenad ”urteori” för allting, kanske sammanfattad i en
enda formel. Detta är dock än så länge bara en glimt i Ed Wittens öga,
sträng/M-teorins Über-Profet…

Loopkvantgravitation

Loopkvantgravitationen (LKG) har sina rötter i den allmänna


relativitetsteorin i stället för i partikelfysik. I en så kallad hamiltonsk
formulering av relativitetsteorin visade Dirac, och senare Arnowitt-Deser-
Misner och DeWitt vägen för hur man kvantiserar gravitationen utan att ta
(om)vägen över kvantfältteori. Ashstekar upptäckte på 1980-talet nya
variabler med vilkas hjälp man kunde omforma Wheeler-DeWitts
ekvation, den fundamentala ekvationen i denna teori, så att den blev
lösbar. Smolin och Rovelli tolkade 1990 lösningarna de hittat i fysikaliska
termer, grundat på loopkvantiseringen (baserad på en metod som Ken
Wilson tidigare utvecklat för partikelfysik/kondenserade materiens fysik);
grovt sett kan man säga att rumtiden, enligt LKG, på sin fundamentala
nivå består av små, små loopar som väver ihop den klassiska geometrin
som beskrivs av Einsteins allmänna relativitetsteori.
Till skillnad från strängteorin formuleras LKG inte ungefärligt. Inte heller
behöver man extra dimensioner (som strängteorins tio och M-teorins
elva) utan det räcker gott och väl med de vanliga fyra (rummets tre +
tiden). Man hävdar inte heller att den nödvändigtvis är en ”teori för
allting”, i stället koncentrerar man sig på att lösa gåtan om
kvantgravitationen separat. Trots att LKG är betydligt yngre som
forskningsfält än strängteorin så har man uppnått fler resultat, åtminstone
matematiskt, fysikaliskt tvivlar de som inte är LKG-anhängare på att de
faktiskt följer ur teorin:
1. Det är en exakt (d.v.s. icke-approximativ) kvantisering av rummet,
där area och volym är kvantiserade storheter, d.v.s. har ”minsta,
oreducerbara beståndsdelar” på Plancknivå, till skillnad från klassisk
geometri där allt kan delas i oändligt små delar.
2. Man kan härleda entropin (”oordningen”, i stort sett temperaturen)
hos ett svart hål ur fundamentala principer och resultatet
överensstämmer med Hawkings halvklassiska resultat från 1974 (detta
hävdar även strängteorin som ett av sina/sitt enda paradnummer).
3. Singulariteten i Big Bang ersätts med en icke-singulär ”studs”.

Det krävs dock fortfarande mycket arbete för att visa att teorin är logiskt
konsistent, d.v.s. att den inte innehåller interna motsägelser och/eller
uppenbara fysikaliska felaktigheter. Man har heller inte kunnat visa att
allmän relativitetsteori resulterar ur LKG-teorin som en
lågenergiapproximation (vilket är ett krav för att LKG ska kunna vara
fysikaliskt riktig).

Dessutom vet ingen hur man ska kunna testa dess förutsägelser i
verkligheten, något den har gemensamt med alla andra kända kandidater
för kvantgravitation.

Andra idéer

Twistorer är namnet på en modell uppfunnen av Roger Penrose på 1960-


talet. Från början baserades den på det kvantmekaniska begreppet
spinn, men har senare utvecklats även i andra riktningar. Den är ännu
inte lika välutvecklad som de två huvudspåren ovan (trots att de bägge
idag använder aspekter av twistorer) och brukar därför kallas modell,
snarare än teori.

Icke-kommutativ geometri är en generalisering av normal geometri, där


man försöker baka in en fundamental egenskap inom kvantmekanik, att
ordningen i vilken man utför saker har stor betydelse (det kallas att
operationerna inte ”kommuterar”). Framförallt den franske matematikern
Alain Connes har utvecklat denna infallsvinkel. Idag använder både
strängteori och loopkvantgravitation matematiska tekniker från icke-
kommutativ geometri.

Det finns även en mängd andra idéer, av till exempel David Finkelstein,
Charles Misner, Tullio Regge, Rafael Sorkin, Gerard t’Hooft, Lee Smolin,
Stephen Hawking, James Hartle, Renate Loll, Chris Isham m.fl.

Vad vi ”vet” idag

Det vi ”vet” idag kommer visa sig vara felaktigt imorgon. Inte under de
omständigheter som är testade och kända idag, men då man studerar
alltmer extrema fenomen kommer alla dagens kända teorier att bryta
samman. Newtons fysik fungerar för normala vardagsnära händelser,
men är helt felaktig för mikroskopiska fenomen, och också för vanliga
objekt med relativa hastigheter som närmar sig ljusets. Behovet att förstå
atomer gjorde att Newtons rörelselagar generaliserades till kvantfysik.
Höga relativa hastigheter löstes av speciell relativitetsteori.
Kombinationen av kvantfysik & speciell relativitetsteori (kvantfältteori)
krävdes för att kunna förklara det skapande och förintande av partiklar
och antipartiklar, som man först såg i kosmisk strålning på 1930-talet,
och som idag är vardagsmat i partikelacceleratorer. Föreningen mellan
kvantfysik och allmän relativitetsteori är ett ännu olöst problem, men även
när den gåtan knäcks kommer det troligen förr eller senare att krävas en
teori som korrigerar och generaliserar även den. Det verkar som om den
fundamentala fysiken är ett oändligt äventyr. För varje gåta vi löser har
naturen flera nya på lager åt oss.
Det enda som är helt säkert är att morgondagens fysik och vår
uppfattning om universum inte kommer att bli som vi tror idag. Två
tänkvärda exempel: Existensen av atomen blev känd först för hundra år
sedan, och man trodde då att Vintergatan var hela universum…

All vetenskap är egentligen en helhet. Allt ingår i universum. Den kanske


främsta orsaken till att människan delar upp universum i små delområden
är att vi inte kan förstå allt på en gång. Vi har ju trots allt bara en
primathjärna. I naturen finns inga konstgjorda indelningar i fysik, kemi,
biologi, geologi, astronomi, kosmologi etc. De är alla ett resultat av
människans begränsade fattningsförmåga.

Sammanfattning

Einsteins dröm var att beskriva hela naturen i en enda teori, den
drömmen är fortfarande inte uppfylld. Svårigheterna är:
1. Experimentella – hittills omöjligt att få ledtrådar från
experiment/observationer.
2. Matematiska – matematiken finns inte eller är för svår.
3. Kreativa – ”ny Einstein” kanske krävs.

Viktiga personer

Leon Rosenfeld – den förste som försökte kvantisera gravitationen


(1930) genom att använda den, av Paul Dirac, nyuppfunna
kvantfältteorin.

Peter Bergmann – Einsteins lärjunge, som byggde upp de första riktiga


forskargrupperna som på allvar studerade kvantgravitation.

John Wheeler – utvecklade kvantgravitationen från att ha varit en obskyr


verksamhet till ett respekterat forskningsfält i samma anda som annan
fysik (Wheeler var med och utvecklade kärnfysiken på 1930-talet).
Införde ett fysikaliskt synsätt som i stort sett saknats innan (då
kvantgravitationen mest setts som matematiska övningar). I stort sett alla
dagens forskare inom kvantgravitation har Wheeler som ”gudfar”.
Härledde, bland mycket annat, Wheeler-DeWitt ekvationen,
huvudekvationen i så kallad Hamiltonsk eller ”kanonisk” kvantgravitation.

Richard Feynman – löste under 1940-talet problemet med oändligheter


inom kvantfältteorin (genom att med egna ord ”sopa problemen under
mattan”). Trodde, då gravitationen är den svagaste kraften av alla, i slutet
på 1950-talet att han snabbt och enkelt skulle kunna lösa även
kvantgravitationens gåta på motsvarande sätt. Det visade sig vara
omöjligt, men ledde till att Feynman, i processen, under 1960-talet tog
fram flera tekniker som sedan visade sig oumbärliga för den moderna
”gaugeteorin” som dagens partikelfysik bygger på.

Bryce DeWitt – lyssnade till ett föredrag där Feynman beskrev hur
kvantgravitationen kunde lösas till första och andra approximationen, och
tog under åren som följde fram metoder som gäller för godtycklig
approximationsnivå. Eftersom gravitationen senare visade sig vara ”icke-
renormerbar” (vilket betyder att metoderna för att ”sopa oändligheterna
under mattan” inte fungerar) gav detta ändå inte en generell lösning.
Härledde också Wheeler-DeWitt-ekvationen.

Paul Dirac – gjorde tidiga, stora insatser inom teorin för kvantgravitation,
främst inom den hamiltonska formuleringen.

Reser Arnowitt, Stanley Deser, Charles Misner – uppfann en kraftfull,


elegant formalism med vilken man kan behandla (hamiltonsk)
kvantgravitation på ett sätt analogt med normal ”enkel” kvantmekanik
(ersätta generaliserad rörelsemängd med kvantoperator).

Roger Penrose – blev mycket berömd för sina ”singularitetsteorem”


inom allmän relativitetsteori under 1960-talet. Dessa möjliggjordes
genom att Penrose utvecklade helt nya, kraftfullare matematiska metoder
än man tidigare använt, och som Stephen Hawking sedan använde för
att bevisa att en (klassisk) Big Bang-modell av universum måste ha
startat från en singularitet, ett oändligt sammanpressat starttillstånd.
Penrose har sedan 1960-talet utvecklat en egen oberoende väg mot
kvantgravitation med hjälp av så kallade twistorer.

Stephen Hawking – Wheelers doktorand, Jacob Bekenstein, gissade att


ett svart hål måste ha en entropi, en temperatur, eftersom svarta hål
annars skulle bryta mot termodynamikens andra lag. Hawking trodde
först inte att ett svart hål kunde ha en temperatur, det borde ju sluka all
strålning. Han lyckades, genom att ”klistra på” kvanteffekter på en känd
geometri för ett svart hål, ta fram en (approximativ) formel som stämde
överens med Bekensteins ”gissade” formel (1974). Temperaturen hos
hawkingstrålningen är omvänt proportionell mot massan hos det svarta
hålet, vilket innebär att svarta minihål (om de alls kan formas) skulle
explodera i en skur av gammastrålar. Då detta var det första konkreta
exemplet på en effekt från kvantgravitation sågs det som ett stort steg på
vägen mot en exakt framtida teori för kvantiserad gravitation. Man har
ännu aldrig upptäckt hawkingstrålning observationellt, d.v.s. i
verkligheten.

Lee Smolin & Carlo Rovelli – utvecklade den moderna, mest lovande
varianten av kanonisk (hamiltonsk) kvantgravitation, så kallad loop-
kvantgravitation (1990). Då den har sitt ursprung i exakta metoder ur den
matematiska fysiken är den mer stringent (strikt) än strängteori. Många
av resultaten är därför matematiskt helt korrekta (till skillnad från
strängteori, som är en approximativ teori), osäkerhet uppstår dock vid
tolkningen av vad lösningarna betyder fysikaliskt.

Grundläggande ekvationer

Wheeler-DeWitts ekvation:
Loopkvantgravitation:
Big Bang på 15 minuter –
den stora skrällen
Idag pekar de bästa astronomiska observationerna på att universum
skapades för ungefär fjorton miljarder år sedan. För bara några årtionden
sedan såg de flesta fysiker med djup skepsis på frågor som dessa, och
först nyligen har kosmologin, studiet av universum som helhet, börjat
anses som rumsren forskning av de breda lagren forskare. Orsaken är att
modern teknologi gjort det möjligt att genom verkliga observationer testa
och förfina modeller av universum, även om många gåtor fortfarande
återstår, och dagens modell troligen fortfarande är en grov förenkling av
verkligheten.

Eftersom ljuset rör sig med en hög men fix hastighet, kan vi faktiskt göra
en sorts ”datortomografi” av universum – både i rum och i tid. Vi ser ju
mycket avlägsna objekt som de såg ut för mycket länge sedan; då de
sände ut sitt ljus var universum mycket yngre än idag. (Ungefär som att
prenumerera på en dagstidning från Argentina via fraktskepp från
Sydamerika, ”nyheterna” har varit på väg länge och är redan historia när
de når oss.) Därför kan man göra ”arkeologiska” undersökningar av
universum, inte genom att gräva sig ner djupare och djupare genom
jordlagren, utan genom att se längre och längre ut i universum.

Den idag mest framgångsrika modellen för universum kallas Big Bang –
den stora skrällen. Tyvärr är namnet lite missvisande eftersom det inte
rör sig om en vanlig explosion i en redan existerande volym. Både
rummet och tiden skapades i stället samtidigt med materian och
strålningen. Vad som fanns ”före” Big Bang mister alltså sin mening i
denna, strikt klassiska, modell eftersom tiden själv inte fanns tidigare. En
kvantmekanisk teori för gravitation skulle kanske kunna ställa och
besvara den frågan, men tyvärr finns inte den ännu.
Varför tror vi på Big Bang?

Det finns tre huvudledtrådar som idag pekar på att universum tidigare
troligen befunnit sig i ett mycket hoptryckt tillstånd.
Den kanske viktigaste ledtråden, eftersom den är svår att förklara i
andra modeller, är att restglöden från universums tidigare heta,
komprimerade, tillstånd upptäcktes 1964 av Penzias och Wilson.
Teoretiskt hade Gamow redan på 1940-talet beräknat att ett universum
som börjar i en Big Bang skulle generera en strålning som idag borde ha
temperaturen 5 grader Kelvin, det vill säga fem grader över den absoluta
nollpunkten. Penzias och Wilson kände inte till denna förutsägelse, utan
deras upptäckt, som de senare fick nobelpris för, började som ett
irriterande brus i mätapparaturen, som störde det de egentligen ville
mäta. De såg en temperatur på tre Kelvin, som dessutom var likadan i
alla riktningar på himlen. Detta är just vad man skulle förvänta sig för
restglöden från Big Bang.
Den andra ledtråden är andelen helium i universum, som är alldeles för
hög för att enbart ha kunnat produceras i stjärnorna (som ju omvandlar
väte till helium i sin energiproduktion under merparten av sin livstid). Om
man använder helt vanlig kärnfysik trillar resultatet enkelt, och mer eller
mindre automatiskt ut ur Big Bang-modellen. Under universums första få
minuter producerades en fjärdedel helium från universums ursprungliga
väte, sedan blev det, på grund av expansionen, för kallt för fusionen att
slå ihop vätekärnorna (protoner) till heliumkärnor, och kärnfusionen
avstannade ända tills de första stjärnorna tändes flera miljarder år
senare.
Den tredje och sista ledtråden är Hubbles upptäckt från slutet av 1920-
talet som visade att universum expanderar. Om man ”spelar filmen
baklänges” betyder det då att universums beståndsdelar var mer
hoptryckta ju längre tillbaks i tiden man kommer. Dagens bästa
kombinerade kosmologiska mätningar tyder på att universum idag är
ungefär fjorton miljarder år gammalt (om antagandena i modellen är
korrekta vill säga).

Universums historia, så vitt vi vet idag…


Det kanske verkar märkligt att bry sig om och skilja mellan extremt korta
tidsepoker i det tidiga universum. Vad kan egentligen vara skillnaden
mellan vad som hände en miljondels sekund efter Big Bang och en
miljarddels sekund, och hur kan det alls påverka oss idag? Då glömmer
man flera saker: För det första var de naturliga avstånden i det tidiga
universum i klass med dagens minsta kända elementarpartiklar, och
därför beror universums utveckling mycket starkt av de elementarpartiklar
och krafter som var aktiva just då. En mycket liten skillnad i dessa
egenskaper skulle potentiellt kunna få enormt stora konsekvenser för hur
dagens universum ser ut. För det andra kan det i det tidiga universum
mycket väl vara så att varje faktor tio i tiden (t.ex. skillnaden mellan 10-10
och 10-11) är ungefär lika viktig. Trots att tidsintervallet blir tio gånger
mindre för varje steg närmare ursprunget så kan också alla reaktioner
ske ungefär tio gånger snabbare eftersom det fysikaliska universum då
var mycket mindre, så lika mycket ”viktig fysik” kan hinna ske
(matematiskt säger man att denna så kallade logaritmiska tid är den
väsentliga tidsskalan för dessa fenomen). Om det verkligen är så (vilket
ingen vet idag) finns det inget slut på den möjliga fysik man kan påträffa
när man närmar sig tiden noll. Man kan ju dela något i tio, och i tio igen
och i tio igen… oändligt många gånger innan man kommer till noll. Det
kan å andra sidan vara så att det finns en minsta ”tidsenhet”,
Plancktiden, vilken är ungefär 10-43 sekunder och som kan skapas ur de
tre fundamentala konstanterna ħ, c och G. I så fall kan man dela en
sekund i tio 43 gånger efter varandra innan man når denna gräns.
Observerbara signaler från det riktigt tidiga universum kan också
användas för indirekta indikationer på ny, exotisk fysik, ett slags
fattigmansaccelerator.

En kort, och delvis mycket preliminär, historia över universums


tidsepoker, och de partiklar och krafter som då var verksamma följer.
Från och med den elektrosvaga epoken behövs ingen ”exotisk” otestad
fysik, redan där tror man sig idag ha relativt bra koll på de processer som
var viktiga.

Planckepoken (t < 10-43 sek)


Eftersom vi ännu är oförmögna att länka kvantfysiken (vår framgångsrika
lära för det mycket lilla) med allmän relativitetsteori (vår framgångsrika
lära för det mycket stora) så är vi idag maktlösa att beskriva denna
tidsepok. Möjligen var alla de fyra, nu kända naturkrafterna förenade till
en enda.

GUTepoken (10-43 < t < 10-38 sek)

Universum kan här ha innehållit endast två krafter, gravitation och en


GUTkraft (“grand unified theory”) där de båda kärnkrafterna, stark och
svag, och den elektromagnetiska kraften alla tre var förenade till en enda.
Då universum var 10-38 sekunder gammalt hade det, helt automatiskt
genom expansionen, kylts till 1029 grader, och då “kondenserade” den
starka kärnkraften, i teorin, ut ur GUTkraften. Energin som frigjordes
genom detta kan ha förorsakat en plötslig och dramatisk inflation
(uppblåsning) av universums storlek.

Elektrosvaga epoken (10-38 < t < 10-10 sek)

Universum innehöll tre distinkta krafter: gravitation, stark kärnkraft och


den elektrosvaga kraften. När universum var 10-10 sekunder gammalt
hade temperaturen sjunkit till 1015 grader, vilket resulterade i att den
elektromagnetiska och svaga kärnkraften separerades. Att detta
verkligen händer verifierades indirekt via detektionen av W- och Z-
partiklarna i partikelfysikexperiment 1983.

Partikelepoken (10-10 < t < 10-3 sek)

Dagens fyra naturkrafter var nu distinkta. Partiklar och fotoner var lika
många. När universum var 10-4 sekunder kombinerade kvarkarna ihop
sig till protoner, neutroner och deras antipartiklar. Vid 10-3 sekunder hade
universum temperaturen 1012 grader. Protoner, antiprotoner, neutroner
och antineutroner kunde inte längre skapas ur strålningen. Resterande
partiklar och antipartiklar förintade varandra och skapade fotoner. En
mycket liten övervikt av partiklar över antipartiklar blev det vi idag ser
som materia i universum. Än finns ingen riktig förklaring till hur och varför
denna obalans skapades.

Nukleosyntesepoken (10-3 sek < t < 3 min)

Under denna epok började protoner och neutroner slås ihop genom
kärnfusion, men de nya tyngre atomkärnorna slets också sönder av den
höga temperaturen. Efter 3 minuter hade universum kylts ner till 109 (en
miljard) grader, och fusionen avstannade. Efteråt var massfördelningen
av materia 75 % väte, 25 % helium, med bara minimala spår av andra
kärnor som deuterium (väte med en, extra neutron) och litium.

Kärnepoken (3 min < t < 400 000 år)

Universums materia var nu ett hett plasma av väte & heliumkärnor, samt
fria elektroner. Fotonerna kolliderade hela tiden med elektronerna, och
universum var fortfarande ogenomskinligt för ljus. Då universum blivit
ungefär 400 000 år hade det kylts till en temperatur av 3 000 Kelvin.
Elektronerna kunde nu, för första gången, bindas till atomkärnorna.
Eftersom atomer är elektriskt neutrala kunde nu fotonerna fritt strömma
genom universum, som för första gången blev genomskinligt för ljus. Det
är detta ljus, nedkylt tusen gånger eftersom universum sedan dess blivit
tusen gånger större på grund av expansionen, som Penzias och Wilson
upptäckte 1964.

Atomepoken (400 000 < t < 109 år)

Universum var nu fyllt av atomär gas. Eftersom inga stjärnor ännu hade
tänts, och inga andra ljuskällor fanns, brukar detta kallas universums
”mörka tidsålder”. Täthetsvariationer i gasen, kombinerat med
gravitationell attraktion (troligen ”dopad” med mörk, exotisk materia)
formade de första ”protogalaktiska” molnen. De allra första stjärnorna
föds, och triggar i sin tur formationen av de första galaxerna ur dessa
gasmoln.

Galaxepoken (t > 109 år)

De första galaxerna tros ha skapats ungefär en miljard år efter Big Bang.


Med bland annat rymdteleskopet Hubble har man nyligen kunnat
observera att de var mindre, talrikare och ljussvagare än de galaxer som
finns idag. Detta tar man som ett bevis för att mindre strukturer bildats
först, för att sedan klumpa ihop sig till allt större objekt, inklusive hopar av
galaxer, hopar av hopar av galaxer (så kallade superhopar) och
gigantiska kosmiska voids (tomrum) och filament – repliknande strukturer
längs med vilka de flesta kända galaxer ligger – på ytan av de ”bubblor”
som definieras av tomrummen. Dessa kan vara hundratals miljoner ljusår
stora, och nyligen observerade man ett tomrum med en utsträckning på
över en miljard ljusår. Dessa är de största objekt man hittills kunnat se i
universum.
Galaxepoken är universums nuvarande tidsepok.

Viktiga personer

Alexander Friedmann – visade i början av 1920-talet att Einsteins


allmänna relativitetsteori har en lösning som motsvarar ett expanderande
universum.

Edwin Hubble – upptäckte i slutet av 1920-talet, genom astronomiska


observationer med dåtidens kraftfullaste teleskop, att universum
verkligen expanderar.

Georges Lemaitre – föreslog i början av 1930-talet att universum


skapats från ett kosmiskt ”urägg”, vilket kan ses som startskottet för
dagens Big Bang-modell.
Hans Bethe – presenterade i slutet på 1930-talet teorin för hur
energiproduktionen i stjärnor går till i termer av kärnfysikaliska reaktioner.
Man insåg snabbt att allt helium i universum troligen inte kunde ha
skapats i stjärnor.

George Gamow – utvecklade på 1940-talet Lemaitres teori och


utvidgade den till att även omfatta den tidiga nukleosyntesen i universum,
huvudsakligen produktionen av helium, baserat på Bethes kärnfysik.
Insåg samtidigt att en Big Bang-modell automatiskt förutspår en
observerbar restglöd som idag bör ligga på några grader Kelvin.

Fred Hoyle – namngav ”the Big Bang” i ett försök att misskreditera idén,
då Hoyle själv (tillsammans med Bondi och Gold) hade hittat på den,
under 1950-talet, bästa utmanaren till Big Bang-modellen; teorin om det
”Stationära tillståndet” för universum, som där antogs alltid ha existerat
och alltid ha sett ut ungefär som det gör nu. Namnet anammades i stället
snabbt av Big Bang-modellens anhängare.

Arno Penzias & Robert Wilson – upptäckte 1964, av en ren slump,


restglöden från universums tidiga barndom och mätte upp den till 3
Kelvin. Penzias och Wilson hade aldrig hört talas om Gamows
förutsägelse drygt femton år tidigare. Ödets ironi var att Robert Dicke och
hans forskargrupp just hade konstruerat ett dedikerat instrument för att
försöka detektera Gamows föreslagna strålning, men fick se sig slagna
av Penzias och Wilson. Satellitexperimenten COBE (1990) och WMAP
(2003) har sedan dess mätt bakgrundsstrålningens egenskaper med
mycket stor precision. Dessa har åtföljts av satelliten PLANCK (2008)
som ger ännu mer detaljerad information om denna viktiga strålning.

Grundläggande ekvationer

Relativa antalet, N, neutroner (n) och protoner (p) i en given volym av det
tidiga universum ges av
Då universum kyls ner kommer protoner inte längre att kunna
konverteras till neutroner (på grund av neutronernas något högre massa
m), samtidigt sönderfaller neutroner genom vanligt radioaktivt
betasönderfall. Slutresultatet av universums tidiga nukleosyntes blir att ca
¼ av universums massa (av åtminstone normal materia) idag är helium,
resten är protoner (väte).

Temperaturen T är omvänt proportionell mot ”den kosmiska skalfaktorn”


a(t) vid en given ålder, t, på universum (där a(t) i sin tur är relaterad till
det observerbara universums storlek i varje tidsepok).

I det tidiga universum utgörs det mesta av energin av strålning,


universum sägs då vara ”strålningsdominerat”, och då är

Då universum blev genomskinligt för ljus, efter ca 400 000 år, skedde
också övergången till det ”materiedominerade” universum vi fortfarande
lever i, vilket ger

Det var också först då som gravitationen kunde börja bygga upp
strukturer, innan dess slog strålningen sönder alla klumpar som
gravitationen försökte sammanfoga.
Svarta hål på 15 minuter –
fysikens slut?

Många tror felaktigt att ett svart hål fungerar som en gigantisk kosmisk
dammsugare som slukar allt i närheten och slutligen allt i universum. Om
man hade oturen att komma nog nära ett svart hål skulle man visserligen
sugas in i det, och snabbt slitas sönder och slutligen krossas i centrum,
men på ett större avstånd fungerar det svarta hålet bara som vilken
massa som helst. Om solen magiskt kunde förvandlas till ett svart hål
(vilket den aldrig kommer att bli enligt våra bästa beräkningar eftersom
solen är alldeles för lätt) skulle jorden och alla de andra planeterna i
solsystemet fortsätta sina banor kring det nybildade svarta hålet som om
inget hade hänt. Den enda skillnaden skulle vara att solljuset försvann.

Svarta hål har en lång och brokig historia. En förutsättning för svarta hål
är allmän relativitetsteori – än idag vår bästa teori för gravitation,
eftersom svarta hål inte alls kan finnas enligt Newtons lagar från 1600-
talet (då ljuset i den teorin antas ha oändligt hög hastighet). Einstein
publicerade sin allmänrelativistiska fältekvation för gravitationen 1915. I
allmän relativitetsteori finns inga gravitationskrafter alls, utan det vi
upplever som en gravitationskraft är i själva verket en effekt av att själva
rummet och tiden – rumtiden – kröks av energi eller massa, eftersom det
enligt relativitetsteorin är två uttryck för samma sak. Redan året därpå,
1916, fann Karl Schwarzschild en lösning till Einsteins fältekvation för en
sfärisk (klotformad), statisk, icke-roterande massa. Det betyder att
rumtiden runt, till exempel, solen kan beskrivas av Schwarzschilds
lösning. Orsaken till att det fungerar i solsystemet är att solen är nästan
sfärisk, roterar långsamt och tappar massa (på grund av sin
energiproduktion) mycket långsamt procentuellt sett. Dessutom
innehåller solen mer än 99 % av hela solsystemets massa, vilket gör att
man i en första approximation kan försumma krökningen som genereras
av planeterna (där Jupiter dominerar eftersom den är tyngst). För
”normala” astronomiska objekt ger Schwarzschilds lösning inte upphov till
några problem. Men om man på något sätt skulle kunna trycka ihop hela
massan inuti en viss kritisk volym, det vill säga innanför en viss given
radie – Schwarzschildradien, insåg man snabbt att mycket konstiga saker
skulle hända med Schwarzschilds lösning. Singulariteter, där densiteten
och som en konsekvens rumtidens krökning blir oändlig, skulle dyka upp.
Ett sätt att tackla detta var att förneka att materien kunde komprimeras så
mycket, vilket var vad bland annat Einstein gjorde. Han publicerade till
och med en artikel där han ”bevisade” att det var omöjligt.
Robert Oppenheimer och Hartland Snyder visade dock 1939 med hjälp
av konkreta detaljerade beräkningar att en stjärna med en massa större
än några solar automatiskt och obönhörligen kommer att kollapsa till
Schwarzschilds ”omöjliga” objekt. Eftersom Oppenheimer och Snyder var
tvungna att idealisera problemet väldigt mycket för att alls kunna lösa det,
bland annat antog man att materian inuti inte utövade något som helst
tryck, var de flesta fysiker fortfarande skeptiska.

Idag vet vi helt säkert att allmän relativitetsteori förutsäger att dessa
”exotiska” objekt måste finnas, genom exakta ”singularitetsteorem” av
Roger Penrose som följer direkt ur relativitetsteorin, och de fick 1967
namnet ”svarta hål” av den amerikanske fysikern John Wheeler. Varför
”svarta”? Jo, allt som kommer innanför den så kallade
händelsehorisonten, som i fallet med en sfärisk statisk massa ligger som
en fiktiv ”klotyta” vid Schwarzschildradien, kommer utan återvändo att
sugas in i centrum. Detta gäller för allt, det vill säga även för ljus, vilket
innebär att det svarta hålet blir … svart. Ett annat sätt att säga det på är
att, sett utifrån, tiden kommer att saktas in mer och mer för ett objekt som
närmar sig händelsehorisonten, vilket innebär att ljus som försöker ta sig
ut skiftar färg och får lägre och lägre energi. Precis vid
händelsehorisonten är detta gravitationella ”rödskift” oändligt stort och
energin hos ljuset noll, vilket förstås medför att inget ljus finns. Ett objekt,
till exempel en astronaut, som däremot faller mot händelsehorisonten
upplever inget sådant skift. Det korsar utan problem händelsehorisonten
och faller på en ändlig (och oftast mycket kort) tid in i singulariteten och
komprimeras ut ur vårt universum. Denna synbara ”paradox” är ingen
paradox alls utan beror på att både rum och tid kan vara olika för olika
observatörer (det vill säga platser) i relativitetsteorin. I fallet med ett svart
hål är denna skillnad dragen till sin spets. Tiden står, sett utifrån, stilla på
händelsehorisonten medan den tickar på som vanligt för en astronaut
som faller igenom den.
Trots att det verkligen händer konstiga saker vid händelsehorisonten –
ingenting kan komma ut om det någonsin kommit in och tid och en av
rummets tre dimensioner byter plats och mening med varandra innanför
den – vet vi idag, att Schwarzschildradien inte definierar en riktig
singularitet, eftersom krökningen inte är oändlig där. I stället är den en
”fiktiv” singularitet, som beror på att de koordinater Schwarzschild
ursprungligen använde inte fungerar bra just där. Därför kallas den ibland
också för ”koordinatsingularitet” eftersom man kan trolla bort den genom
att bara byta till ett nytt koordinatsystem. I centrum, det vill säga där r = 0,
finns dock en ”äkta” sigularitet där rumtidens krökning verkligen är
oändlig. Detta togs från början som ett tecken på att själva fysiken där
”kramas ut ur universum” och slutar, men tas numera oftast bara som ett
tecken på att allmän relativitetsteori inte längre är tillämpbar vid så
extremt höga tätheter, det vill säga att vi sträckt Einsteins teori till och
bortom bristningsgränsen. Man tror idag att kvantmekaniska effekter blir
viktiga innan singulariteten skapas, och att de troligen hindrar den från att
alls uppstå. Men ännu så länge är det bara en gissning eftersom ingen
detaljerad teori för kvantiserad gravitation, ”kvantgravitation”, ännu finns.

Hur ser det enligt allmän relativitetsteori ut innanför händelsehorisonten?


Det är tomt, så när som på singulariteten i centrum, åtminstone om man
väntar ett bra tag efter det svarta hålet bildats och man också försummar
sporadiskt infallande objekt, partiklar och strålning utifrån. Allt som korsar
händelsehorisonten kommer alltså obönhörligen att sugas in mot
singulariteten. En hyfsad analogi är att se rummet innanför som ett
vattenfall som hela tiden forsar in mot centrum snabbare än ljuset. Det
innebär att en simmare (ljuset) aldrig kan ta sig ut eftersom strömmen
(rummet) rör sig inåt snabbare än någon kan simma (ljushastigheten).
Och kan inte ljus ta sig ut kan ingenting annat heller göra det.
Eftersom den ursprungliga materien krossas till ingenting, en
matematisk punkt i centrum helt utan utsträckning, finns den materien
egentligen inte kvar i vårt universum. John Wheeler har kallat detta
”mass without matter” – massan finns kvar eftersom det svarta hålet
fortfarande kröker rumtiden utanför (och innanför) händelsehorisonten,
trots att materien egentligen redan har försvunnit.

En oväntad sak är att man faktiskt kan korsa händelsehorisonten till ett
(gigantiskt) svart hål utan att egentligen känna av det, men trots det kan
man aldrig ta sig ut igen och ens framtid finns med säkerhet i
singulariteten i centrum. Hur det känns då man korsar
händelsehorisonten beror på så kallade tidvatteneffekter, eftersom det
också är de som ger upphov till tidvattnet på jorden. Om man faller in i ett
litet svart hål kommer tidvatteneffekterna att vara mycket stora, varför
den del av kroppen som är på väg in upplever en effektiv
gravitationskraft, som kan vara många miljarder gånger större än den
som verkar på den del av kroppen som är längst ut. Detta innebär att
man upplever en extrem töjningskraft som sliter sönder själva atomerna i
kroppen. (Givetvis avlider man långt innan detta.) Ju större det svarta
hålet är desto mildare blir tidvattenseffekten vid händelsehorisonten och
för gigantiska svarta hål blir den omärklig – vilket inte hindrar att man slits
sönder av den innan man, bara något senare, faller in i singulariteten i
centrum. I mer realistiska fall, där man till exempel inte antar att den
ursprungliga kroppen som det svarta hålet skapas av är sfärisk, kan man
visa att singulariteten kommer att skapa kaotiska svängningar i
krökningen av rumtiden som växer till oändlig styrka då man närmar sig
singulariteten. Denna mer fysikaliska lösning (jämfört med den
idealiserade så kallade Oppenheimer–Snyder-singulariteten) kallas för
BKL-singularitet efter upptäckarna Belinskii, Khalatnikov och Lifshitz.
1963 upptäckte Roy Kerr en ny exakt lösning till Einsteins ekvation,
som man senare insåg beskriver ett roterande svart hål. Lösningen är
betydligt krångligare, eftersom man inte längre har sfärisk symmetri, men
man får också helt nya spännande fysikaliska effekter som inte finns för
Schwarzschilds lösning. Singulariteten är inte heller längre en
matematisk punkt, utan en ring som ligger i
rotationsplanet/”ekvatorialplanet”. Eftersom ringen är en matematisk linje
med volymen noll blir densiteten, och följaktligen krökningen i
singulariteten fortfarande oändlig – ”singulär”. Dessutom kommer själva
rumtiden utanför att rotera med det svarta hålet, så kallad frame-
dragging, ungefär som om rumtiden bestod av tjock olja. Innanför ett visst
avstånd, den så kallade statiska gränsen, kan inte ens ljuset självt rotera
i motsatt riktning mot det svarta hålet utan ”släpas med” i rumtidens
rotation. Det intressanta är att den statiska gränsen ligger utanför
händelsehorisonten. Roger Penrose upptäckte 1969 att detta innebär att
det svarta hålets rotationsenergi kan utvinnas med hjälp av något som
idag kallas ”Penroseprocessen”. Han räknade ut att det finns en region
runt det svarta hålet, ”ergosfären”, där man kan stoppa in något och få
det tillbaka ut med en högre hastighet, det vill säga utvinna energi. Den
energin måste komma någonstans ifrån och Penrose lyckades visa att
den kommer från det svarta hålets rotation.
Man tror idag att Penroseprocessen (tillsammans med galaktiska
magnetfält) för gigantiska roterande svarta hål i galaxkärnan hos mycket
tidiga galaxer bland annat förklarar de enorma relativistiska ”jets” –
partikelstrålar med nära ljusets hastighet som strömmar ut från kvasarer
– de mest avlägsna, och därför ljusstarka objekt vi idag känner till. Svarta
hål är överraskande nog otroligt effektiva på att omvandla materia till
strålning, mycket effektivare än till exempel kärnkraft som bara
omvandlar ca 1 % av massan till energi. (Det enda som är effektivare för
detta än svarta hål är annihilation av materia och antimateria där 100 %
av massan blir strålning.) Inget kan komma ut från området innanför
händelsehorisonten, men innan materialet faller genom den kommer det
att hettas upp enormt mycket på grund av friktion och växelverkningar
mellan de infallande partiklarna, vilket innebär att de strålar ut kopiösa
mängder strålning, till exempel röntgenstrålning. 1971 upptäcktes den
första observerade kandidaten för ett svart hål. Det binära stjärnsystemet
”Cygnus X1” där den mörka (osedda) stjärnan/svarta hålet har ca 10
solmassor. Objektet identifierades först med röntgenobservatoriet
”Uhuru”.
Den mest generella lösningen för ett svart hål upptäcktes 1965 av Ted
Newman (och medarbetare) och kallas därför Kerr-Newmanlösningen.
Ett svart hål kan bara ha tre egenskaper, massa (M),
rörelsemängdsmoment (J) det vill säga rotation, och elektrisk laddning
(Q). Känner man till dessa tre parametrar så vet man allt om det svarta
hålet. Ett svart hål är alltså det enklaste objekt som finns i den klassiska
fysiken. Till och med ett dammkorn behöver nära nog ett oändligt antal
parametrar för att kunna beskrivas i mikroskopisk detalj, för att inte tala
om jättestjärnan som skapade det svarta hålet. Men när det väl har
skapats är det extremt enkelt, John Wheeler har valt att beskriva det
som: ”a black hole has no hair”, med vilket han menar att det svarta hålet
inte har några som helst detaljer utöver M, J, Q. Vet man alltså massan,
rotationen och laddningen vet man allt som går att veta om ett svart hål, i
alla fall enligt den rent klassiska teorin allmän relativitetsteori. Vad som
händer när man tar hänsyn till kvantfysiken (vilket man måste göra
eftersom den mest fundamentala nivån i universum idag beskrivs av
kvantfysik) kan du själv spekulera i eftersom ingen idag vet det…

Viktiga personer

Albert Einstein – uppfann allmän relativitetsteori (1915), men motsatte


sig kraftfullt idén om svarta hål.

Karl Schwarzschild – upptäckte (1916) lösningen till Einsteins


fältekvation som gäller för en isolerad, sfärisk, oföränderlig massa som
heller ej roterar.

Robert Oppenheimer & Hartland Snyder (1939) – visade ur allmän


relativitetsteori att Schwarzschildlösningen, om all massa M finns
innanför Schwarzschildradien, kollapsar till ett svart hål.

David Finkelstein (1958) – upptäckte att händelsehorisonten hos ett


svart hål fungerar som ett envägsmembran; lätt att komma in, omöjligt att
komma ut.

Roy Kerr – upptäckte (1963) en ”generaliserad Schwarzschildlösning”


där massan även roterar.

Roger Penrose – visade (1964) genom kraftfulla globala (topologiska)


metoder, som han själv utvecklade, att singulariteten inte kan undvikas,
oavsett hur den kollapsande massan ser ut och beter sig.

Ted Newman – publicerade 1965, tillsammans med medarbetarna


Couch, Chinnapared, Exton, Prakash och Torrence, den mest generella
lösning som är möjlig för ett svart hål (åtminstone inom allmän
relativitetsteori). Kopplingen till svarta hål insågs dock först senare.

John Wheeler – namngav svarta hål (1967) och myntade uttrycket ”a


black hole has no hair”, det vill säga att ett (klassiskt) svart hål inte har
några som helst detaljer, utan i stället är de enklaste objekten inom hela
den klassiska fysiken.

Jacob Bekenstein – upptäckte/gissade 1972 att svarta hål måste ha en


entropi (”oordning”) som är proportionell mot händelsehorisontens area.
Detta gick synbarligen stick i stäv mot ”no hair”antagandet.

Stephen Hawking – upptäckte (1974) att då man approximativt ”klistrar


på” kvanteffekter på klassiska svarta hål (ur allmän relativitetsteori) så är
de inte längre svarta, utan strålar ut energi. Denna så kallade
hawkingstrålning har, passande nog, ett ”svartkroppsspektrum”. Den
utstrålade energin i ett visst våglängdsintervall beror bara av
temperaturen – och ju högre massa på det svarta hålet desto lägre
temperatur. Detta resultat härleddes först i ett försök att motbevisa
Bekensteins antagande. I stället visade det att Bekenstein hade rätt.
Entropi och temperatur hänger enligt termodynamiken intimt samman,
och man kan faktiskt översätta termodynamikens lagar i termer av svarta
hål.

Grundläggande ekvationer

Schwarzschildmetriken (i sfäriskt polära koordinater)

Schwarzschildradien (ger ”fiktiv singularitet” i metriken ovan)


Gravitationellt rödskift

Statisk gräns (skriven i ”relativistiska enheter” c=G=1)

Hawkingstrålning
Bonus: Preoner & preonstjärnor

ännu mer fundamentalt?

”Kompakta objekt” är astronomiska kroppar som komprimerats så mycket


att deras inre kvantmekaniska beståndsdelar i princip börjar ”ta i”
varandra. Traditionellt talar man inom astrofysiken om tre huvudtyper av
kompakta objekt: vita dvärgar, neutronstjärnor och svarta hål. Vi har
upptäckt att en helt ny typ av kompakta objekt, som vi kallar
”preonstjärnor”, teoretiskt kan existera om ännu mindre och mer
fundamentala elementarpartiklar än kvarkar och leptoner, så kallade
preoner eller prekvarkar, existerar. Det finns både fysikaliska och
historiska skäl till varför ännu fler lager av allt mindre elementarpartiklar
ska existera. Om detta visar sig vara sant så är möjligheten stor för att
ännu mer sammanpressade objekt än neutronstjärnor kan finnas, d.v.s.
det kan finnas fler anhalter för materien innan den, eventuellt, pressas
samman till ingenting (ett svart hål).

Om våra nya objekt verkligen existerar skulle det innebära något av en


revolution för förståelsen av materien och de fundamentala fysiklagarna.
Vi har också visat att preonstjärnor kan kopplas till ett flertal olösta
gåtor inom astronomin: mörk materia, kosmisk strålning med mycket
höga energier och eventuellt även gammablixtar. Resultaten visar också
på en koppling mellan storleken hos elementarpartiklarna (d.v.s.
preonerna) och storleken samt massan på de resulterande kompakta
objekten. Det innebär bland annat att det kan vara möjligt att göra
partikelfysikexperiment, inte genom att bygga allt kraftfullare och dyrare
partikelacceleratorer, utan genom att göra, i sammanhanget, mycket
billigare astronomiska observationer. Om de nya elementära partiklarna
visar sig vara alltför små kan det vara så att vi aldrig, åtminstone inte
inom överskådlig framtid, kan skapa dem direkt i aktiva
partikelfysikexperiment på jorden. Däremot kan det vara, relativt sett,
enkelt och billigt att upptäcka dem indirekt genom passiva astronomiska
observationer.

Därför blir det också extra viktigt att ta fram metoder med vilka man
potentiellt kan observera preonstjärnor. Vi har beräknat vilka ”signaler”
astronomer kan förvänta sig att se pga. dessa nya kompakta objekt: i)
gravitationsvågor som skiljer sig markant från de man förväntar sig från
traditionella astronomiska objekt, ii) gravitationslinsning som också den
är unik (och som faktiskt redan kan ha upptäckts i existerande data), iii)
riktningsinformation från kosmiska strålar som kan skapas av magnetiska
roterande preonstjärnor.

Teoretiska frågor som återstår att besvara är bland annat: a) hur och i
vilken mängd preonstjärnor kan formas i det tidiga universum, b) om det
är möjligt att preonstjärnor kan vara ett resultat av döende stjärnor, c) om
och hur existensen av preonstjärnor ändrar universums expansion och
strukturbildning och sålunda även dess historia och nuvarande ålder.

Varför preoner?

Dagens mest fundamentala beskrivning av naturen, som också är testad


med hjälp av experiment, är partikelfysikens så kallade standardmodell.
Där utgörs den fundamentala nivån i naturen av kvarkar och leptoner,
samt av kraftpartiklar som påverkar kvarkar och leptoner olika. Det finns
6 olika typer av kvarkar (u,d,s,c,b,t) och 6 olika leptoner (e, μ, τ, νe, νμ,
ντ). En underlig sak är att endast de lättaste kvarkarna u och d är stabila,
de övriga kvarkarna sönderfaller mycket snabbt till dessa. Detsamma
gäller för leptonerna, endast de lättaste är stabila. Redan här kan man
alltså börja misstänka att kvarkarna inte är så fundamentala som man
hoppats. En verkligt fundamental partikel bör inte kunna sönderfalla, eller
hur? Historiskt har det dessutom alltid varit så att instabila partiklar
senare har upptäckts bestå av mer fundamentala byggstenar.
Preoner är just en sådan föreslagen mer elementär klass av
byggstenar. De första preonmodellerna framlades redan på 1970-talet.
Namnet ”preon” uppfanns av Abdus Salam och Jogesh Pati 1974. Salam
fick senare nobelpriset, inte för sitt arbete på preoner utan för hans
bidrag till den elektrosvaga teorin som idag ingår som en del av
partikelfysikens standardmodell.

Runt millennieskiftet var jag själv involverad i konstruktionen av en ny,


förbättrad preonmodell, som kan förklara alla kvarkar och leptoner i
standardmodellen, inte bara de i den första ”partikelgenerationen” som
de första preonmodellerna, i termer av enbart tre fundamentala och helt
stabila preoner. Automatiskt kan vår modell också förklara en hel del
andra relationer, som i standardmodellen är helt orelaterade och
oförklarliga. Bland annat fås en relation mellan Cabibbovinkeln och
Weinbergvinkeln, som i standardmodellen är två helt oberoende
parametrar. Man får alltså en minskning av antalet fria parametrar i
teorin, som i standardmodellen uppgår till över 20 varav de flesta är
relaterade till partiklarnas olika massor och måste fixeras via jämförelse
med experiment. Vår preonmodell ger också en rad experimentellt
testbara förutsägelser, såsom helt nya partiklar som bör kunna upptäckas
med hjälp av partikelacceleratorn LHC vid CERN.
Det finns också en utbredd åsikt bland världens partikelfysiker att
”något” nytt borde dyka upp vid en energiskala på ungefär en TeV
(”Tera”elektronvolt, d.v.s. 1012 elektronvolt, där 1 elektronvolt =
1,602×10-19 Joule är den naturliga energienheten för atomfysik). Några
föreslagna kandidater till detta nya är supersymmetriska partiklar, extra
dimensioner, mikroskopiska svarta hål, och just preoner. Alla håller dock
med om att standardmodellen inte kan vara den slutgiltiga teorin, den
innehåller helt enkelt för många oförklarade saker och lösa trådar. Man
kan också se att teorin inte riktigt logiskt hänger samman; ”sömmarna”
mellan de olika ingående delarna syns alltför tydligt. Dessutom är hela
den elektrosvaga delen av teorin mer eller mindre en enda röra.
Preonmodeller har ofta den fördelen att de kan städa upp delar av den
röran ganska snyggt.
En stor olöst fråga är hur man i preonmodeller ska förklara de relativt
lätta massorna hos kvarkar och leptoner. Den har till och med fått ett
namn, ”hierarkiproblemet”. Bindningskraften bidrar med en negativ
energi, så det är naturligt att anta att kvarken/leptonen ska väga mindre
än summan av massorna hos preonerna som bygger upp den, men alla
detaljer har ännu inte lösts på ett helt tillfredsställande sätt. Men för att
sätta det i rätt perspektiv har t ex strängteori exakt samma problem, men
ännu värre; varför har inte varje kvark/lepton Planckmassa (ungefär
massan hos en bakterie) den naturliga massan i strängteorin? Enligt
strängteori är den enda lösningen att kvarkar och leptoner är
masslösa… Men det är de inte.
Mer exakt är det energiskalan där de nya beståndsdelarna visar upp
sig som är relevant, och enligt Heisenbergs osäkerhetsrelation är energin
omvänt proportionell mot partiklarnas ”storlek”, d.v.s. substrukturens
längdskala. Ju mindre substruktur man vill se desto högre energi måste
till.

Enkelt uttryckt skulle preoner bara vara nästa steg i trappstegen för
”fundamentala” partiklar: atomer, atomkärnor, protoner/neutroner,
kvarkar, preoner, …, … där serien av neråtgående steg möjligen avslutas
med supersträngar men troligen med något helt annat som återstår att
upptäcka. Det är väldigt naivt att anta att det inte finns något nytt mellan
skalan för kvarkar & leptoner och de (hypotetiska) supersträngarna. Trots
allt är skillnaden i storlek mellan en atom och en supersträng lika stor
som mellan solsystemet och en atom, så det finns troligen många lager
kvar att upptäcka innan vi når ”botten”, om en sådan alls existerar. Jag
tror det är extremt osannolikt att vi ”hårlösa apor” redan nu skulle ha
upptäckt alla naturens mysterier under de få hundra år modern
vetenskap existerat. Man har i alla tidsepoker trott sig ha de slutgiltiga
svaren (eller åtminstone att de varit just runt hörnet), men det har hittills
aldrig stämt och chansen för att vi skulle ha hittat den totala ”sanningen”
just idag är lika liten nu som då.
Som alltid inom vetenskapen är en teori bara en gissning. Man måste
sedan testa den genom experiment och/eller observationer. Det är ”den
vetenskapliga metoden”. Det som stör mig lite är att merparten av
dagens teoretiska fysiker arbetar på teorier som är ”otestbara”,
åtminstone för en väldigt lång tid framåt. Det påminner om den mörka
tidsåldern under medeltiden då ”naturfilosofer” i Europa debatterade hur
många änglar som får plats på ett nålhuvud, samtidigt som kinesiska
astronomer gjorde verkliga observationer av verkliga supernovor
(exploderande jättestjärnor).
Skillnaden mellan preoner och strängar är att preonteorier kan testas
idag med LHC och/eller preonstjärnor, strängteorier inte under
överskådlig framtid.

Om LHC ser preoner kommer den alltså att ”lösa upp” kvarkarna i deras
mer fundamentala preonbyggstenar. Allt kan hända, idag vet vi inget om
materiens struktur på avstånd kortare än ungefär 10-19 meter. Man kan
argumentera för preoner genom att komma ihåg att naturen har en
hierarkisk struktur på alla längdskalor som hittills undersökts.

Varför preonstjärnor?

Naturen verkar fungera på det sättet att alla mikroskopiska möjligheter


realiseras. Allt som på kvantmekanisk nivå inte är strikt förbjudet är
obligatoriskt. Vi har visat att ett kompakt kosmiskt objekt som består av
preoner är fysikaliskt möjligt. Detta ges av Einsteins allmänna
relativitetsteori, vår mest moderna teori för gravitation, och preonernas
egenskaper. Om sedan preonstjärnorna har nog stor sannolikhet för att
bildas i stor mängd i universum är ännu varken bevisat eller motbevisat.
Men på grund av ”obligatoriskt”principen ovan så bör preonstjärnor i alla
fall finnas om preoner finns.
Preonstjärnor är inte beroende av en specifik teori för preoner. Det
enda som krävs är att preonerna är fermioner, ett partikelslag som
definieras av att det har kvantmekaniskt spinn ½ (eller 3/2, 5/2, osv).
Fermioner lyder under ”Paulis uteslutningsprincip” som förbjuder två
fermioner att vara i exakt samma tillstånd. Alla nu kända materiepartiklar
är av typen fermioner, så det verkar naturligt att även nästa lager materia
ska bestå av fermioner.

Den uppenbara nyheten med preonstjärnor i astrofysiken är förstås att de


är en aldrig förut föreslagen, helt ny klass av kompakta objekt, som
utökar dessa till fyra från de traditionellt ”kända” tre; vita dvärgar,
neutronstjärnor och svarta hål. Vi väntar bara på att läroböckerna ska
skrivas om… För den teoretiska partikelfysiken innebär preonstjärnor ett
helt nytt sätt att testa teorier för vad som egentligen är de fundamentala
beståndsdelarna i naturen. Orsaken till att jag själv till viss del
”deserterat” till astropartikelfysiken är att inget egentligt nytt har hänt
experimentellt inom partikelfysiken på 30 år. Det finns ett nästan otaligt
antal teorier, där givetvis de flesta är fel, men det är idag omöjligt att testa
dem, ett säkert tecken på att de teoretiska ”framstegen” är i helt fel
riktning. Fysik är när allt kommer omkring tänkt att vara vår beskrivning
av naturen, inte någon sorts kvasifilosofi. Vi försöker själva basera våra
”galna” idéer i den vetenskapliga processen. Vi inser att vår hypotes om
preonstjärnor oundvikligen måste backas upp med experimentella eller
observationella bevis innan den kan nå allmän acceptans.

Preonstjärnornas egenskaper

De traditionellt erkända kompakta objekten i kosmos är som sagt vita


dvärgar, neutronstjärnor och svarta hål. Vita dvärgar bildas då
gravitationen trycker ihop en död stjärna, där energiproduktionen i
centrum avslutats och det normala trycket försvinner, så att atomerna
börjar ”ta i” varandra. Enligt kvantfysiken, Paulis uteslutningsprincip, finns
nämligen ett effektivt ”degenerationstryck” mellan fermioner även då
temperaturen går mot noll. Elektronerna i atomer är just av typen
fermioner. Detta ger de vita dvärgarna en storlek jämförbar med jordens.
Över den så kallade Chandrasekhar-massan (1,4 solmassor) kan
elektronernas degenerationstryck inte längre stå emot gravitationen.
Enkelt uttryckt pressas då elektronerna in i atomkärnornas protoner och
bildar neutroner. En neutronstjärna föds då neutronerna ”tar i” varandra,
eftersom de också är fermioner. En neutronstjärna kan ha mellan 1,4 till 3
solmassor, och storleken är nu bara några tiotals kilometer. Tätheten i en
neutronstjärna är jämförbar med att man skulle trycka ihop jordens alla
människor i en volym lika liten som en sockerbit… Om stjärnresten är
massivare än så räcker inte heller neutronernas degenerationstryck till,
utan stjärnan kollapsar till volymen noll, ett svart hål. Även så kallade
kvarkstjärnor och hybridstjärnor beter sig i stort sett som neutronstjärnor,
med samma gränser för massan. I kvarkstjärnor består centrum av
stjärnan teoretiskt av en soppa av fria kvarkar, vilket ger en något mindre
storlek och lite andra rotationsegenskaper.
Ovanstående bygger på att kvarkar och leptoner inte har någon inre
struktur, d.v.s. inte är uppbyggda av mer fundamentala beståndsdelar.
Om preoner finns ändras förutsättningarna helt.
Beroende på preonernas egenskaper, så kommer en stabil
preonstjärna att ligga inom ett givet intervall för storlek och massa.
Eftersom partikelfysiken är testad upp till en energiskala av ungefär 1
TeV (1000 miljarder elektronvolt) måste eventuella preoner ha en högre
energi än så. ”Hög energi” kan också i kvantfysiken översättas till ”kort
avstånd”. Det innebär att en preon har en ”storlek” av högst 10-19 meter,
eftersom man redan har testat materien ner till den nivån.
Detta resulterar i att preonstjärnor som mest kan ha en radie på
ungefär en meter, samtidigt som den maximala massan motsvarar
hundra jordklot. Preonstjärnor är alltså extremt mycket kompaktare än till
och med neutronstjärnor. Det innebär att den nya ordningen för
kompakta kosmiska objekt, i ökande densitetsordning blir: vita dvärgar,
neutronstjärnor, preonstjärnor, svarta hål.
Parametrarna som bestämmer storleken och massan är i) massorna
hos de elementära preonpartiklarna själva, ii) växelverkningarna, d.v.s.
krafterna mellan preonerna, iii) gravitationen från preonstjärnan. Då den
inåtriktade kraften (gravitationen) är i exakt balans med den utåtriktade
(degenerations)kraften, uppnås preonstjärnans statiska jämviktstillstånd.
Detta är exakt samma princip som för vita dvärgar och neutronstjärnor,
den enda skillnaden är byggstenarna som ger upphov till
degenerationstrycket.

Astrofysikaliska gåtor som kan lösas med


preonstjärnor

Den mest uppenbara rollen som preonstjärnor kan spela astronomiskt är


den som ”mörk materia” i universum. Ur flera oberoende observationer
vet man att materieinnehållet tycks domineras av en exotisk form av
materia, som man aldrig sett direkt. Dessa indikationer kommer från
rotationen hos spiralgalaxer och rörelsen hos galaxer i galaxhopar.
Bägge dessa rör sig alldeles för snabbt för att kunna hållas samman av
gravitationen från enbart den synliga materien. Eftersom man också vet
att galaxer och galaxhopar existerat i miljardtals år och alltså måste vara
stabila, så betyder det att man behöver en stor mängd mörk materia för
att förklara detta eftersom de annars skulle slitas sönder av sin egen
rotation. Materien kallas ”mörk” för att den inte strålar ut något eget ljus
och knappt växelverkar elektromagnetiskt.
Man kan lätt visa att preonstjärnor teoretiskt kan utgöra all mörk
materia i universum. Att de är så små och kompakta kan förklara varför
astronomer ännu inte upptäckt dem.
Mycket små preonstjärnor kan troligen produceras i tillräcklig mängd ur
densitetsvariationer i det tidiga universum. Detta har också den fördelen
att det undviker en gräns som finns för hur mycket normal materia det
kan finnas i universum. Big Bangteorin ger automatiskt gränser för den
normala materia som kan bildas, men eftersom preonstjärnor kan skapas
mycket tidigare, och dessutom inte är normal materia, påverkas de inte
alls av denna teoretiska gräns.

Ytterligare en astronomisk gåta är ursprunget till de allra mest energirika


kosmiska strålarna. Det finns en teoretisk gräns, den så kallade GZK-
gränsen, för hur energirik en kosmisk stråle kan vara. Om de överskrider
en viss energi så är universum inte längre genomskinligt för kosmisk
strålning. Universum är ju inte tomt, utan är överallt fyllt med ungefär 400
fotoner per kubikcentimeter från den kosmiska mikrovågsbakgrunden, en
avsvalnad rest från Big Bang. Inga kända objekt som kan accelerera
kosmiska strålar till de observerade ofantliga energierna finns inom det,
kosmologiskt sett, korta avstånd som krävs. Preonstjärnor passar dock
perfekt som ursprung till dessa högenergetiska kosmiska strålar,
eftersom de (på kosmologisk skala) kan vara nära oss och samtidigt kan
ha enormt stora magnetfält och rotationshastigheter tillräckliga för att
accelerera t.ex. protoner till de högsta observerade energierna (och mer
därtill).

Metoder för att upptäcka preonstjärnor

Eftersom preonstjärnor är så små, som fotbollar eller mindre, så är


chansen att se dem direkt med teleskop i det närmaste omöjlig. En
metod för att upptäcka dem bygger i stället på gravitationslinsning. I
Einsteins allmänna relativitetsteori är gravitation inte en kraft utan en
krökning av rumtiden. Detta innebär att en ansamling av materia kan
fungera ungefär som en vanlig optisk lins, vilket också har observerats
åtskilliga gånger. Trots sina små storlekar har preonstjärnor ändå
tillräcklig massa för att påverka ljuset från bakomliggande ljuskällor.
Preonstjärnor är dock alldeles för små för att ge den normalt
karakteristiska, kortvariga ökningen av ett bakomliggande objekts
ljusstyrka typisk för större gravitationslinser. I stället fås en
diffraktionseffekt som liknar den från ett vanligt gitter. För preonstjärnorna
ligger denna effekt i röntgen och gammaområdet av ljusets spektrum.
Därför passar t.ex. gammastrålningsblixtar utmärkt som ljuskällor för att
kunna observera denna typ av fenomen. Gammablixtar är enorma utbrott
av högenergetisk strålning som tros skapas i enorma exploderande
stjärnor och kollisioner av neutronstjärnor. För linsning runt små objekt
som preonstjärnor är dessa korta våglängder nödvändiga, och ljuskällan
måste även den vara liten. Eftersom gammablixtar strålar ut det mesta av
sin energi i korta gamma och röntgenstrålar, kan preonstjärnor alltså
linsa denna strålning. Vi har bland annat noterat att den gammablixt som
observerades av den japanska satelliten Ginga den 5 februari 1988
verkar visa på linsning av en preonstjärna. Spektrat från Ginga visade två
dippar i intensitet precis vid de våglängder som skulle resultera om en
mellanliggande preonstjärna agerade som gravitationslins på
gammablixten. Man har hittills upptäckt ett fåtal kandidater av just det här
slaget, som ger en indirekt indikation på att preonstjärnor kan finnas. Mer
detaljerade observationer och analyser måste dock göras innan några
säkra slutsatser kan dras.

Ytterligare en metod att indirekt ”se” preonstjärnor är att studera just


kosmisk strålning med extremt höga energier, t.ex. genom
Augerobservatoriet. Eftersom dessa kosmiska strålar har så hög energi
påverkas de inte av vintergatans magnetfält, och man får därför direkt
information om var preonstjärnan finns, d.v.s. dess riktning på himlen.
Denna kan sedan kompletteras med uppföljande
gravitationslinsobservationer.
En tredje metod vi föreslagit baseras på ytterligare ett relativistiskt
fenomen: gravitationsvågor. Dessa vågor är ”krusningar” i rumtidens
geometri som orsakas av accelererande massiva objekt. Två
preonstjärnor som virvlar runt sitt gemensamma masscentrum kan vara
möjliga att detektera med kommande experiment om de ligger inom
några tusen ljusårs avstånd från jorden.
Ett binärt par av preonstjärnor i en relativt vid bana skulle generera
gravitationsvågor med en frekvens av några tusen cykler per sekund. Det
planerade (underjordiska) observatoriet EURO, som ska stå färdigt om
några år, skulle ha nog stor känslighet för att se dessa.

På grund av sina små storlekar kommer vissa preonstjärnor att kunna


virvla runt i en bana mindre än en millimeter. Dessa system skulle
generera gravitationsstrålning med miljontals cykler per sekund. Vid
University of Birmingham har man byggt en prototyp som använder sig
av resonanta mikrovågor för att kunna detektera dessa. Trots att dagens
prototyp inte har tillräcklig känslighet för att se binära preonstjärnor kan
nästa generation instrument få det. Detektion av extremt högfrekvent
gravitationsstrålning skulle ge detaljerad information om källornas
densiteter och massor och kunna påvisa preonstjärnornas existens.

Framtida utmaningar

En mycket viktig obesvarad fråga är: Hur skapas preonstjärnor? Det finns
troligen två huvudsakliga sätt på vilka de kan skapas, antingen genom
densitetsvariationer i det tidiga universum, eller genom döende stjärnor i
det senare universum (eller båda). Att det måste ha funnits variationer i
densitet i det tidiga universum vet man redan, annars skulle inga objekt
alls ha kunnat bildas. Frågan är om de varit av rätt slag för att skapa
preonstjärnor i sådan mängd att de ska kunna utgöra den mörka
materien.
En annan viktig sak är att undersöka om det är möjligt för en stjärna på
åtskilliga solmassor att slunga ut merparten av sin massa vid
dödsrosslingarna, och på så sätt kunna bilda en preonstjärna i stället för
ett svart hål. Idag finns inga enkla svar på detta.
Det är intuitivt svårt att förstå hur preonstjärnor, med massor jämförbara
med jordens, kan skapas ur supermassiva stjärnor. Men det har heller
aldrig bevisats vara omöjligt. Faktum är att väldigt lite är känt angående
detaljerna kring hur jättestjärnor exploderar. Det är till exempel näst intill
omöjligt att få en supernova att explodera i datorsimuleringar. Realistiska
simuleringar skulle inkludera icke-symmetrisk kollaps, starka magnetfält,
turbulens, neutriner, neutrino-lik strålning på preonnivå,
gravitationsvågor, och så vidare. Då kan det visa sig att i) nästan all
massa/energi strålas ut och lämnar en lätt preonstjärna, ii) många
preonstjärnor formas som ”pärlor på ett snöre”, speciellt om växelverkan
mellan preoner beter sig snarlikt som QCD, teorin för hur kvarkar
växelverkar genom utbyte av gluoner. I QCD är det välkänt att
sammansatta partiklar skapas som ”pärlor” längs relativistiska jets.

Faktum är att själva den tidsberoende formationen av dynamiska


kompakta objekt är väldigt dåligt känd. Undersökningar av egenskaperna
hos statiska kompakta objekt, när de väl har formats, är i jämförelse
nästan oändligt mycket lättare. Det finns alltså inget som i förväg säger
att en preonstjärna av storleksordningen en jordmassa inte kan formas
av en döende stjärna av storleksordningen tio solmassor.

En av de allra viktigaste utmaningarna ligger förstås i att ta fram exakta


signaturer som skall kunna jämföras med astronomiska observationer.
Ett första steg i den riktningen har vi redan tagit, men mer exakta och
uttömmande analyser behövs.
Indirekta indikationer på preonstjärnor kan också komma från
simulering av mörk materia i galaxer, galaxhopar och universum, speciellt
då det gäller strukturformation vilken kan jämföras med framtida
observationer.

Den allra mest direkta metoden vore givetvis om preoner upptäcks i


partikelacceleratorer på jorden. Detta kommer dock bara att fungera om
preoner är relativt lätta. För väldigt massiva preoner finns ingen chans att
se dem direkt i acceleratorer inom överskådlig framtid. Om så är fallet
kan man alltså vända på steken och indirekt använda astronomiska
observationer för att sluta sig till materiens fundamentala struktur. Med
redan existerande observationsmetoder kan man undersöka
”preonstorlekar” som kanske inte skulle vara direkt observerbara i
acceleratorer förrän om 100 år, om ens någonsin. Ju högre energier,
d.v.s. ju mindre storlekar vi vill studera – partikelfysikens forskningsfront
– desto större anledning finns det att blicka utåt och uppåt istället för inåt
och neråt… Arbetsnamnet på en av våra vetenskapliga artiklar om
preonstjärnor var från början ”Are we looking in the right direction for
fundamental constituents?” – ”Tittar vi i rätt riktning för att finna de
fundamentala beståndsdelarna?”

Sammanfattningsvis:

1. Har vi upptäckt den teoretiska möjligheten för ett helt nytt kompakt
kosmiskt objekt, det vill säga utökat skaran från tre (vita dvärgar,
neutronstjärnor, svarta hål) till fyra (vita dvärgar, neutronstjärnor,
preonstjärnor, svarta hål).
2. Har vi föreslagit flera sätt genom vilka astronomer kan observera
preonstjärnor, om de finns.
3. Och allra viktigast för mig som ”gammal” partikelfysiker: Har vi visat
hur man indirekt, ”billigt & enkelt”, kan observera substruktur (preoner) i
kvarkar och leptoner (om den existerar) genom astronomiska
observationer. Dessutom även för extrema energier som LHC inte
kommer att ha tillgång till, och inte heller någon annan partikelaccelerator
under överskådlig framtid.
Relaterade forskningsartiklar:

“Preon stars: a new class of cosmic compact objects”


Physics Letters B616 (2005) pp. 1–7
http://arxiv.org/abs/astroph/0410417

“The observational legacy of preon stars – probing new physics beyond


the CERN LHC”
Physical Review D76:125006 (2007)
http://arxiv.org/abs/astroph/0701768

“Preon Trinity – A Schematic Model of Leptons, Quarks and Heavy


Vector Bosons”
Europhysics Letters 57 (2002) pp. 188–194
http://arxiv.org/abs/hepph/0208135
Om författaren

Johan Hansson är professor i teoretisk fysik, för närvarande vid Luleå


tekniska universitet.
Några institutioner där han tidigare varit verksam inkluderar UC
Berkeley (USA), Universitetet i Turin (Italien) samt Richmond University
(USA).
Johan är bland annat ”uppfinnare” av preonstjärnor och
neutromagneter som uppmärksammats internationellt av Nature,
Physical Review Focus, New Scientist, Physics World, MIT Technology
Review, m.fl.
Fotnot 1

Två undantag är supraledning och suprafluiditet; elektrisk ledning och


vätskeflöde helt utan motstånd/friktion, där kvanteffekterna uppförstorats
så att vi kan se dem direkt på vår nivå.

Fotnot 2

Den som knäcker gåtan med partikelgenerationerna och deras massor


kommer garanterat att kunna se fram emot att hämta Nobelpriset i
Stockholm år 2XXX.

Fotnot 3

Hade man varit nog smart hade man, genom Olbers paradox, kunnat
förutsäga att universum måste expandera långt innan Hubble
observerade det. Ingen var så smart…

Fotnot 4

Galaxhopens massa kröker rum-tiden vilket medför att ljus böjs runt den,
den fungerar alltså som en (dålig) vanlig lins. Genom att mäta på hur
ljuset avböjs kan man ”baklänges” räkna ut galaxhopens massa.

Fotnot 5

Chromo = färg
INNEHÅLL

Kvantfysiken på 15 minuter
Relativitetsteorin på 15 minuter
Kaosteorin på 15 minuter
Partikelfysiken på 15 minuter
Kosmologin på 15 minuter
Strängteorin på 15 minuter
Kvantgravitation på 15 minuter
Big Bang på 15 minuter
Svarta hål på 15 minuter

Bonus: Preoner & preonstjärnor

You might also like