Historisk forudsætning for computeren

Main image kapitel
Den engelske matematiker Alan Turing som ofte sættes i forbindelse med computerens fødsel under Anden Verdenskrig.
Den engelske matematiker Alan Turing som ofte sættes i forbindelse med computerens fødsel under Anden Verdenskrig.
Arkivfoto: Scanpix Danmark

Hvornår begyndte mennesket at bruge tal?

Menneskets brug af tal og beregninger er den grundlæggende forudsætning for, at computeren overhovedet blev udviklet. Man ved ikke helt præcist, hvornår mennesket egentlig begyndte at tælle eller regne, men de tidligste måder at gøre det på var at tegne streger på stokke eller bruge sten til at angive mængder. I 1960 fandt man på grænsen mellem Congo og Uganda en knogle med udskæringer, som man mener skal forestille en række af tal. Knoglen er omkring 20.000 år gammel og har fået sit navn – Ishango-knoglen – efter det folk, som levede i området på den tid.

Det mest kendte regneapparat fra antikken er romernes abacus, som var en sandbakke, hvor man ved hjælp af rullesten af kalk udførte beregninger. Kalkrullestenen hed 'calculus’ på latin, og herfra stammer verbet at kalkulere. Abacusen blev ført videre af handelsveje til Østen. Her kopierede og videreudviklede kineserne og japanerne abacusen og opfandt kuglerammen, hvor man kunne lave beregninger ved hjælp af trækugler, som glider på pinde.

Men grækerne har i oldtiden for over 2.000 år siden også haft nogle sofistikerede tidsmålere, som kunne kopiere månens og solens kredsløb via mekaniske tandhjul. De har formentlig været brugt til f.eks. skibsnavigation og beregning af tidscyklussen mellem De Olympiske Lege.

Ideen om tallet 0 kom først omkring år 600. Det var indiske matematikere, som begyndte at bruge nullet i deres udregninger samt negative tal for at repræsentere gæld. Opfindelsen af nullet gjorde det muligt at regne med meget store tal, og er forudsætningen for den logiske algebra, som er den matematik, vi anvender i dag.

Hvad betyder ordet 'computer'?

Ordet computer er engelsk og kommer fra det latinske verbum computare, som betyder at beregne noget matematisk. Computer er ifølge Den Store Danske Encyklopædi oprindeligt betegnelsen for en person, der laver beregninger. I 1800-tallet begyndte man at bruge ordet om mekaniske maskiner, som opfindere konstruerede til at lave matematiske beregninger. 0

I Danmark fik computeren betegnelsen datamat i 1960’erne, men i dag er den danske betegnelse erstattet med det engelske udtryk computer. Dataautomat og datamaskine blev også tidligere brugt om computeren.

Hvornår udviklede man de første regnemaskiner?

Det er svært at sige, hvad der var den første computer. Allerede i 1500- og 1600-tallet begyndte astronomer og astrologer at konstruere regne- og tællemaskiner, som kunne hjælpe dem med at udføre matematiske beregninger, når skibe skulle navigeres i forhold til solen, stjernerne og månen. Et eksempel er den tyske astronom og matematiker Wilhelm Schickard, der byggede en mekanisk regnemaskine, som kunne lægge tal sammen, trække fra, dividere og gange. Man har kun informationer om denne maskine fra et brev, som Schickard skrev til sin kollega astronomen Johannes Kepler i 1623.

Det var dog den kun 19-årige franskmand Blaise Pascal (1623-1663), der i 1642 begyndte at udvikle principperne til der senere skulle blive til den første regnemaskine. Pascal var søn af en skatteopkræver, og ønskede at opfinde en maskine, der ville lette faderens arbejdsmængde og gøre skatteberegningerne mere pålidelige. Efter tre års arbejde nåede Pascal frem til en prototype, han var tilfreds med, og i 1649 fik han kongeligt privilegium som Frankrigs eneste producent af regnemaskiner.

Trods dette blev Pascals opfindelse aldrig særlig udbredt, da den med datidens mekanik var både svær og dyr at fremstille.

Op gennem 1700-tallet voksede behovet for at kunne foretage komplicerede pålidelige matematiske beregninger. Et behov dels fremkaldt af voksende statsadministrative opgaver såsom mere kompliceret skatteopkrævning og befolkningsstatistik, og dels af ny teknik indenfor bygningskonstruktion og astronomi. Fagfolk besad derfor ofte over 100 bøger med tabeller, der skulle bistå dem i deres arbejde.

For at komme efterspørgslen i møde, og nedbringe antallet af fejl i statsadministration, tildelte den britiske regering i 1822 derfor den engelske matematiker og opfinder Charles Babbage (1791-1871) et stipendium til forskning i automatiseret beregning. Charles Babbage udviklede herefter, som den første ideen til en maskine, der på flere måder minder om nutidens computer. Babbage døbte sin opfindelse 'The Analytical Engine' – på dansk 'den analytiske maskine'. Ligesom vores computer havde den en styreenhed og en regneenhed kaldet the mill samt en hukommelsesenhed, the store. De tal, som skulle behandles blev repræsenteret som huller på et hulkort, mens resultatet eller outputtet blev repræsenteret af en graf eller en klokke. Selvom Charles Babbage arbejdede på sin maskine i næsten 50 år, lykkedes det ham dog aldrig til fulde at omsætte sine teorier til praktisk.

Babbages prototyper og artikler var dog nok til at inspirere en anden englænder, nemlig adelskvinden Ada Lovelace (1815-1852). Den 19-årige Lovelace mødte Babbage i 1833 til en demonstration af en hans prototypers regneevner. Ada Lovelace, der siden sin barndom havde beskæftiget sig med matematik var dybt fascineret af maskinen og dens potentiale. Hun indledte derfor et livslangt partnerskab med Babbage omkring udviklingen af analytiske maskiner.

I en af sine artikler beskriver Lovelace, hvordan kodning kunne appliceres til den analytiske maskine, så den ved siden af tal ville blive i stand håndtere og behandle symboler og bogstaver. Altså en form for computerprogram, og Ada Lovelace kan derfor beskrives som verdens første computerprogrammør. Samtidig var hun visionær, og hvor Charles Babbage kun så matematisk potential i sin maskine, forudså Lovelace at fremtidens analytiske maskiner ville være i stand til omsætte og behandle en lang række ting såsom musik, billeder og tekst i digital form. Noget, der først blev til virkelighed mere end 100 år efter hendes død.

Samtidige med at Babbage og Lovelace arbejdede med den analytiske maskine, begyndte de første serieproducerede regnemaskiner at komme på markedet under navnet arithmometer. Disse nye maskiner havde ikke samme grad af kompleksitet og udviklingspotentiale som Babbages model, men var ikke desto mindre grundlaget for langt mere effektive beregninger for virksomheder og stater.

Hvad var hulkortmaskinen?

Da Charles Babbage udtænkte sin analytiske maskine, var hulkort centralt, når maskinen skulle 'fodres’ med data, der skulle behandles, og når dataresultaterne skulle aflæses. Den hulkortteknik, som Babbage brugte i sin model, var inspireret af den franske videnskabsmand Joseph Marie Jacquard, der havde udviklet teknikken i 1700-tallet i forbindelse med konstruktionen af en mekanisk væv. På Jaquards væv aktiverede væveren kæder af hulkort via en pedal, som styrede hvilke kædetråde, der skulle løftes på væven. Dermed blev vævningen af stof mekaniseret, og når væveren skulle væve indviklede mønstre, undgik man de menneskelige fejl, som let kunne opstå, hvis væveren f.eks. glemte at løfte en kædetråd.

Hulkortmaskiner blev yderligere udviklet i sidste halvdel af 1800-tallet. I USA indførte man en maskine, da man skulle lave en optælling af befolkningen i 1890. Det var Herman Hollerith, der udviklede dette hulkortsystem til lejligheden. Alle oplysninger om den enkelte borger blev repræsenteret med huller på bestemte steder på et kort, og derefter kunne maskinen optælle hullerne på de forskellige positioner. Maskinerne aflæste hullerne med elektricitet, som slap gennem hullerne og påvirkede et tælleværk. På den måde kunne man hurtigt sortere informationer for forskellige befolkningsgrupper. Herman Hollerith grundlagde virksom heden The Tabulating Company, som senere hen udviklede sig til at blive IBM, en af de mest betydningsfulde virksomheder i computerens historie. Hulkortteknikken blev også brugt i de første elektroniske computere, inden man via tastatur og skærm kunne indtaste og aflæse data.

Hvad er logisk algebra?

Programmeringen af en computer er baseret på det binære talsystem, som er et talsystem udelukkende baseret på de to tal 1 og 0. Ifølge Datamuseum.dk var det den tyske matematiker Gottfried Leibniz, der allerede i 1703 skrev en afhandling om dette system. I stedet for at bruge 10-talsystemet anvendte han 2-talsystemet og brugte kun kombinationer af tallene 1 og 0 for at kunne repræsentere alle tal. Hans system var dog kompliceret, og det blev ikke brugt i praksis, før en engelsk matematiker ved navn George Boole i 1850’erne fastlagde nogle konkrete regneregler: Han lod 0 repræsentere den logiske værdi falsk og 1 værdien sand ud fra den logik, at alle logiske udsagn enten kun kan være falsk eller sand. Det er disse regneregler, som kaldes logisk algebra (se kilder).

I 1930’erne byggede amerikaneren Claude Shannon videre på Booles logik og påviste, at det elektriske kredsløb kunne sammenlignes med Booles symbollogik. De elektriske strømme i et elektrisk kredsløb kan signalere 1 og 0: Hvis der er strøm i et kredsløb har det tallet 1, og hvis der omvendt ikke er strøm i kredsløbet, signalerer det tallet 0. Denne logik er ifølge websiden Datamuseum.dk det centrale i computervidenskaben, fordi computerens komponenter kun har to tilstande (se kilder):

· en kontakt er tilsluttet eller afbrudt

· en ledning er strømførende eller ikke strømførende

· et felt på et hulkort er gennemhullet eller ikke hullet

· et felt på en computerdisk er magnetiseret den ene vej eller den anden vej

Den engelske matematiker Alan Turing udviklede på baggrund af denne logik en universel model for, hvordan alle computere virker – 'Turingmaskinen'. Modellen er ifølge artiklen ”Turing forvandlede computeren fra menneske til maskine” (se kilder) ikke en konkret maskine, men beskriver, hvordan computeren kan programmeres ud fra kombinationer af tallene 1 og 0. Turingmaskinen har altså intet med computerens fysiske komponenter at gøre, men er en abstrakt model af et computerprogram.

 

Videoklip om Alan Turing: