Aarhus University Seal

Fremtidens computer er lavet af grøn nanoteknologi

InnovationLab medstifter Mads Thimmer blogger for tiden til eTech konference i San Diego. Her kan du læse indlæget om at fremtidens computer er lavet af grøn nano:

mads.jpg

Computeralderen er endnu ikke begyndt. Svarende til bilindustrien er vi kun nået til stadiet, hvor vi kan køre to-tre millimeter på en hel tankfuld benzin. Langt den største mængde energi bruges til at producere varme, ikke til regnekraft. Det er dét, som Williams arbejder på at ændre.

Det amerikanske energi-ministerium henvendte sig til Williams med spørgsmålet om, hvordan ville en computer, der kunne foretage præcise beregner over, hvordan jorden vil se ud i 2050, se ud. Svaret var et monster med en regnekraft på 1 mio zettaflops og en størrelse, der dækkede Pari og omegn. Og at den ville bruge 5 terawatt energi og dermed være det største klimaproblem i sig selv!

Svaret ligger et andet sted. Den traditionelle computerudvikling ville give en computer, der kunne regne med en zettaflop i 2040 (forudsat Moore's lov om stort set årlig fordobling af computerkraft), altså kun ti år inden man når 2050, hvilket nok vil være for sent til, at man kan bruge beregningerne til noget. Kan man så nøjes med en Exaflop, måleenheden under? Det kunne være en realitet i 2018, men ville kræve 100,000 multikerne processorer, 500 mio DRAM chips og helt enorm lagerkapacitet, være afhængig af nye teknologier som ssd og photonic interconnect og ville kræve 250 mio Watt at drive, hvilket er et helt atomkraftværk. Prisen ville være en del mia USD.

I stedet for at skulle sætte sin lid til mirakler, så se fx den menneskelige hjerne, der regner på 10 watt med 10.000.000 Giga flops, svarende til 500 af verdens største computere. Det kan vi bla fordi vi ikke bruger energien som varme men som regnekraft.

I dag er ”least environmental impact” øverst på dagsordenen. Derefter kommer effektivitet, kreativitet og tilfældigheder. Et stort problem med nutidens produktion er flytningen af materialer og produkter, som så langt overstiger energiforbruget i selve produktionen. Det samme er tilfældet med serverparker, hvor udgifterne til strøm for at køre computerne og derefter at køle computerne ned langt overstiger udgifterne til computerne selv. Der er altså behov for at se tingene i et skær af proces og cyklus langt mere end isoleret set. Mht serverparken, er det vigtigere at se på hele bygningen end blot på prisen for en enkelt server.

Løsningen:
De sidste 40 år har drejet sig om at få flere transistorer på en chip, de næste to vil dreje sig om at få mere ud af hver kredsløbskomponent i en transistor. Det drejer sig primært om photonics og om nanoconductors. Mht photonics er det muligheden for at ”beame” informationer fra sted til sted med lys (som i lyslederfibre, bare ikke nødvendigvis "ledt") i stedet for som i dag at flytte det gennem kobber og fysiske ledere med varmeudvikling. På et nano-niveau (-30nm) kan man få langt mere ud af hver transistor, fordi energien ikke vil blive brugt på at udvikle varme men i stedet på at flytte informationer og udføre regneopgaver. Williams er optimistisk nok til at se udviklinger på nano-niveau som det meget grønne og stærke alternativ til en traditionel computerudvikling, hvor vi i dag – med den enormt lave regnekraft sammenlignet med fx naturen og den menneskelige forstand – er ved et stenalderligt begynderstadie. Grøn nano er det, fremtidens computer er lavet af. En computer, der ikke adlyder Moore's Law men ”core's law”, hvor der kommer mere og mere information og regnekraft pr chip og ikke flere chips eller flere cores, udviklingen sker på kredsløbsbasis.

Læs flere af Mads Thimmer eTECH blog, f.eks byg din egen hjemmehjælper eller hvilken temperatur skal vi have på jorden