1 van 1

De supercomputer thuis

Geplaatst: vr 18 mei 2007, 09:29
door Wien Ee
Afbeelding


Een team van onderzoekers heeft grootschalige astronomische berekeningen uitgevoerd op de processor van een grafische kaart in een gewone thuiscomputer. Door het efficiënt programmeren van de grafische processor zijn de onderzoekers in staat de computer twintig keer sneller te laten rekenen dan onder normale omstandigheden.


Lees meer ... UVA

Re: De supercomputer thuis

Geplaatst: vr 18 mei 2007, 15:11
door Ruben01
De snelheid van een grafische kaart gaat men reeds gebruiken bij F@H. In het artikel spreekt men over NVIDIA, spijtigenoeg kan F@H enkel overweg met ATI kaarten. Anders kon ik veel sneller vouwen :(

Re: De supercomputer thuis

Geplaatst: vr 18 mei 2007, 21:07
door MaSma
Is wel weer een mooie nieuwe ontwikkeling in de hedendaagse wereld, die mogelijkheden geeft voor de toekomst :cool:

Re: De supercomputer thuis

Geplaatst: ma 21 mei 2007, 19:15
door Jan van de Velde
Waarom zijn gewone processoren voor PC's traag maar makkelijk te programmeren, en die grafische processoren zo snel maar kennelijk lastig efficiënt te programmeren?

Kan iemand mij in lekentaal het principiële verschil uitleggen?

Re: De supercomputer thuis

Geplaatst: ma 21 mei 2007, 19:32
door Cycloon
Eigenlijk kan een grafische processor niet zoveel zaken aan als een gewone processor. Een gewone processor is zeg maar een keukenrobot waar je kan in mixen, stukjes van groenten snijden, ... Je kan er dus veel mee, maar niet alle onderdelen zijn gespecialiseerd. Stel nu dat je een mix apparaat gaat kopen dat speciaal ontwikkeld is om te mixen dan gaat die stukken sneller harde materialen kunnen mixen wat de algemene keukenrobot minder snel zal doen.


De grafische processor is er gekomen als specialisatie van een normale processor. Het heeft dus hardwarematig een aantal voordelen aan boord om grafische zaken uit te rekenen. Het nadeel hiervan is dat andere zaken die weinig met grafische toestanden te maken heeft veel trager gaan. Uiteindelijk moet men heel wat kunstgrepen toepassen om een heel programma op een GPU te laten werken omdat die daar net niet voor gemaakt is.


Een CPU kan dus van alles een beetje en is daar ook voor ontworpen. Een CPU zal dus op z'n beurt een GPU kloppen op allround zaken, maar voor berekeningen die vaak ook gebruikt worden in de wetenschap is zo'n GPU dus perfect.


De CELL van Sony en DELL bv is gemaakt omzowel allround taken op zich te kunnen nemen, als gespecialiseerde stukken. Maar daardoor is het programmeren nog complexer geworden, al kan je dan wel met 1 systeem alles gaan doen wat je wil.


Een cpu kan bv goed sommetjes maken. Daarvoor is die gemaakt, hij kan dus in principe ook een product verwerken als functie van meerdere sommetjes. Maar zoals je zelf wel kan raden is dat minder efficiënt dan dat je er hardwarematig voor zorgt dat die direct producten kan gaan verwerken zonder de omweg naar de sommetjes te moeten maken. Het nadeel daarvan is dan dat je het weer lastig krijgt om sommen te berekenen, en daarvoor moet je dan kunstgrepen gaan toepassen om toch die som te berekenen, waar op bepaalde momenten zelf grove afrondingsfouten gaan komen op sommige simpele sommetjes die moeten weggewerkt worden.