De bekende Wet van Moore (vernoemd naar Gordon Moore, een van de oprichters van Intel) stelt dat het aantal transistors op een computerchip, en daarmee ook de rekenkracht, om de 18 tot 24 maanden verdubbelt. De wet verklaart de ongelooflijke evolutie van computers, maar loopt nu volgens experts duidelijk op haar einde.
The Connectivist: Sommige waarnemers zagen het al langer aankomen, maar de trend waarbij de rekenkracht van een computer om de 2 jaar verdubbelt (en de daarmee gepaard gaande prijsdalingen), komt na bijna een halve eeuw, tot stilstand. De reden is volgens Stephen Furber, professor computer engineering aan de Universiteit van Manchester, “een fundamenteler probleem dan ooit tevoren”: plaatsgebrek.
Extra transistors op een computerchip vereisen extra ruimte. Hoewel ze ongelooflijk klein zijn (en innovaties als 3D transistors de maximale transistordensiteit nog verder kunnen opvoeren), raakt het aantal beschikbare atomen voor transistors op chips stilaan op. Daar komt nog bij dat de allerkleinste transistors erg veel aan betrouwbaarheid en kostenefficiëntie moeten inboeten.
De strategie om steeds meer transistors in chips te duwen verliest dus aan effectiviteit en een nieuwe dringt zich op.
Deze nieuwe strategie heet ‘parallellisering’: het repliceren van een bepaald aspect van het menselijk brein. Onze hersenen zijn qua rekenkracht niet gewaagd aan de typische AMD-, Intel- of ARM-chip, maar zijn op het vlak van ‘computerarchitectuur’ superieur. Ons brein delegeert immers automatisch taken aan de verschillende hersendelen die vervolgens tal van problemen tegelijkertijd kunnen oplossen.
Professor Furber is één van de wetenschappers die voor bestaande computerchips een parallelle computerarchitectuur proberen te creëren. “Tot nu toe was de vooruitgang in computerarchitectuur beperkt omdat de Wet van Moore bleef gelden. Nu daar een einde aan komt, is het aan de computerarchitecten en software-ingenieurs om in actie te schieten,” aldus Furber.
Andere hoopvolle experimenten voorzien onder andere in de vervanging van silicium door efficiëntere koolstofnanobuisjes en quantum computing. Kwantumcomputers zouden het huidig paradigma van bits (die 1 of 0 kunnen zijn) overigens helemaal kunnen overstijgen: elke bit zou een potentieel oneindig aantal waarden tegelijkertijd kunnen aannemen.
Het probleem is dat de technische uitdagingen van parallellisering van een geheel andere orde zijn dan miniaturisatie. Dat maakt het echter des te noodzakelijker om nieuwe doorbraken te realiseren, nu de Wet van Moore en haar garantie op steeds sneller, krachtiger en goedkoper wordende computers een verouderde notie wordt.
[Afbeelding: © Edelweiss – Fotolia.com]