3 van 5

Re: Cpu ontwikkeling tot stand gekomen?

Geplaatst: vr 25 mei 2007, 17:58
door Cycloon
Betreffende je "echte innovatie", zoek maar eens iets op over de quantum computer. Daar heb je m.i. al een hele ommekeer van wat we nu hebben. Je rekenkracht neemt nl exponentieel en niet meer lineair toe. Als dat geen innovatie is, dan weet ik niet waar jij op staat te wachten pi.gif


Op zo'n zaken zit ik te wachten, enkel is het probleem dat er momenteel niet veel in geïnvesteerd word en dat het allemaal maar traag gaat. Men heeft nog maar 1 praktisch model, en zelf daar bestaat al onenigheid over. De quantumcomputer is nog heel ver weg hoor.

Re: Cpu ontwikkeling tot stand gekomen?

Geplaatst: vr 25 mei 2007, 20:11
door eendavid
er bestaat trouwens een grote kans dat de quantumcomputer enkel sneller is voor zeer specifieke taken. Quantumalgoritmen zijn naar het schijnt geen pretje. (en begin nu weer niet af te geven op de software developpers pi.gif )

nu ik toch post: ik zou graag DPW willen bijvallen, en opmerken dat blijkbaar onderschat wordt welke creativiteit nodig is om kleiner te gaan.

Re: Cpu ontwikkeling tot stand gekomen?

Geplaatst: za 26 mei 2007, 12:33
door qrnlk
Ik zou wel een hypercomputer willen hebben. pi.gif

Een quantum computer is nog steeds equivalent met een Turing machine; een QC kan enkele algoritmen sneller uitvoeren dan bijvoorbeeld een von Neumann computer maar het kan geen nieuwe problemen oplossen. Een hypercomputer zou dat wel kunnen

Re: Cpu ontwikkeling tot stand gekomen?

Geplaatst: za 02 jun 2007, 07:06
door qrnlk

Re: Cpu ontwikkeling tot stand gekomen?

Geplaatst: za 02 jun 2007, 13:20
door DePurpereWolf
Jammergenoeg kun je 'System 6.0.8' niet met Windows XP vergelijken. Mijn gsm start ook in 1.5 seconden op, daar kan ik mee typen, spelletjes mee spelen, mp3's mee afspelen, radio mee beluisteren, zelfs foto's mee maken, en het past in de palm van mijn hand.

Appels en peren.

Re: Cpu ontwikkeling tot stand gekomen?

Geplaatst: za 02 jun 2007, 14:40
door qrnlk
Dat wordt in het artikel ook opgemerkt. Echter, de dingen die je wel op beide kunt doen (Office dingen) vertonen vrijwel geen verschil. DAT is wel opmerkelijk.

Re: Cpu ontwikkeling tot stand gekomen?

Geplaatst: di 05 jun 2007, 12:27
door Benm
Eigenlijk is het niet zo opmerkelijk, het is vooral een kwestie van usability eisen. Ieder 'office' pakket moet redelijk snel een bestandje kunnen opslaan, openen, en snel reageren op bijvoorbeeld het intikken van karakters. Doet het dat niet, dan wordt het nooit een succes.

Het verschil is dat de moderne tekstverwerker dit nog steeds doet terwijl er 10 fotos van 5 megapixel in het document zitten, en ondertussen ook nog tijd heeft om live spelling te checken, wysiwyg het resultaat op print te renderen, etc. In die zin is het gewoon features toevoegen zolang usability het nog toelaat, dat kun je bloating noemen, maar dat is het niet per se.

De conclusie dat er geen verschil in productiviteit is lijkt me ook niet zinnig. Het duurt welliswaar even lang voor een werknemer om een of ander document samen te stellen, maar in het moderne geval is het dan wel meteen af met alle grafieken, afbeeldingen en layout erin. Vroeger werden drukkers en dtp'ers daar rijk aan pi.gif

Re: Cpu ontwikkeling tot stand gekomen?

Geplaatst: di 05 jun 2007, 15:23
door DePurpereWolf
Uit die link hierboven vond ik dit een leuke opmerking:
For 35 years, my father has had his own one-man psychological practice. He's been up on the latest technology the entire time. He tells me that the entire process of continually automating more of his work has had absolutely no impact on his productivity or the profitability of his business. Why? Because the exact same technology in the hands of government has enabled government to exert increasingly onerous restrictions and regulatory requirements on his business.

In short, the technology has simply allowed him to keep pace with government edicts.

If we really want to increase general productivity and profitability, we need what I like to call the "One Hand-Written Law Per Page Amendment." This would require all laws to be written by a Congressman or a Senator with a quill pen. It would need to be legible and comprehensible to anyone with a greater than 6th grade public education. Each bill must be no longer than one hand-written page. At no time are bills or laws allowed to be converted to electronic medium. Furthermore, Congressmen and their staff are limited to record-keeping methods and technologies as were available in 1779, i.e. quill pens, hand-made parchment paper, and filing systems comprised of (at best) hand-made wooden boxes.

That ought to keep the bastards from using technology against us. pi.gif

Re: Cpu ontwikkeling tot stand gekomen?

Geplaatst: di 05 jun 2007, 20:31
door Schwartz
Ik heb een blad uit april 1995 waarin het volgende staat:

Parallel technology enters VRcades.

Een plaatje met een Pentium MotherBoard met daarop 4 parallelle Power PC Chips en 4 GLINT chips.

Hoezo Dual Core...

een Quad Core setje.

Niks nieuws onder de zon.

Zo'n setje stuurt men aan met de taal TAOS.

Waardoor de gehele structuur meteen toegepast wordt.

Heeft men meer snelheid nodig: hupsakee: nog meer Power PC chips erin.

Re: Cpu ontwikkeling tot stand gekomen?

Geplaatst: do 07 jun 2007, 01:36
door albert davinci
Inderdaad, ik denk niet dat het veel gaat uitmaken of de spellen op één of twee cores draaien, zoveel CPU power hebben ze niet nodig. Het gaat, zoals je al zei, vooral om grafische power. Een optie is dan weer het tegenovergestelde doen van vroeger. Vroeger heeft mn de GPU geïntroduceerd om de CPU te ontlasten van de grafische taken, als je nu terug één core van de twee kan inschakelen om grafisch werk te doen kom je weer een hele stap verder.
Ze zeiden 10 jaar geleden ook dat je niet zo veel meer grafische power nodig hebt (toen waren ze al blij dat ze '3d'-spellen konden maken en spelen en de grafische kaarten waren erg duur in verhouding tot de extra grafische power). Daar hebben 'ze' zich toch ernstig in vergist omdat de consument 'nóg' betere graphics wilde. :D

Zogauw de technologie er is dan zullen mensen wel toepassingen vinden als die er zijn.

De graphics beginnen het laatste jaar heel behoorlijk te worden als je een nieuwe computer hebt met een goede graphische kaart, het zwakke element in de games is de gebrekkige AI en het onrealistische bewegen.

Ze hebben toch veel extra rekenkracht nodig om deze gebreken weg te werken?

Als je bij een FPS enorm veel vijanden hebben en je ze een enorm uitgebreid scala aan 'intelligente' voorschriften welke anticiperen op jouw acties én die van de medevijanden, zou één chip dat aankunnen als je ook nog een realistische physicsengine in het spel stopt en de graphics maximaal (bijna fotorealistisch) draait?

Ik denk van niet.

Ik kan NFS:MW draaien op mijn antieke PC tegen bescheiden instellingen al duurt het laden verschrikkelijk lang.

Tijdens het rijden merk ik het echter meteen wanneer er 30 politieauto's achtervolgen of 7 anderen racen, dat de framerate enorm schokt (soms bevriezen, soms dat een stuk van de wereld niet is getekend terwijl je er naar toe rijdt, soms loopt ie vast). Ik heb dezelfde ervaring met spellen als GTA-SA. Zogauw er meer rekenwerk is, veel gangsters, meer gebouwen, rookwolken, dan draait het niet meer soepel.

Dit zijn nog simpele bewegingen. Als deze bewegingen ook nog aan de physische wetten moet voldoen (valversnelling minus luchtweerstand, hydrodynamica, lichtbreking enz)....

Ik kan me niet voorstellen dat 1 huidige chip dit alles aankan.
Daar werkt men al naartoe: Windows Media Center...
Toch nog ver van mijn visie. Op dit moment betaal je een kapitaal aan een scala aan apparaten: PC, tv, stereoketen, 2 DVD-spelers/branders; één voor PC en één voor televisie.

Idioot zonde van het geld, je koopt tig keer zo veel chips en andere electronica dan wat je nodig hebt.

Practischer en goedkoper zou het voor de consument zijn als hij maar één apparaat hoeft te kopen wat zich bezig houdt met de verwerking van al deze data.

Dus één centraal apparaat wat voor alle informatie, games, video, audio, thermostaat enz.

Stel dat dat apparaat op zolder staat dan moet jij vanuit de living via dat apparaat naar jouw high definition televisie kunnen kijken, waarbij het televisiesignaal binnenkomt op jouw centrale apparaat.

Vanuit jouw slaapkamer moet je met enkel jouw boksen en subwoofer draadloos naar jouw muziek van voorkeur kunnen luisteren, dat je dus vanuit jouw kamer op een knopje drukt en dat centrale apparaat de muziek afspeelt en doorstuurt naar de boksen enz.

Dat gaat dus nog heel wat verder dan simpelweg op jouw pc naar televisie kijken of muziek luisteren, iets wat ik al lang doe.

BTW, die tv-kaarten en de software, dat kan nog heel wat beter. Op dit moment kan ik met mijn pinnacle (zeker niet de slechtste) enkel in gecomprimeerde versie een film opnemen, hierbij kan ik niet zelf het gecomprimeerde formaat kiezen. De nieuwste compressieformaten voor video zijn zeer behoorlijk (bijna geen artefacten met zeer sterke compressie) maar die kan ik blijkbaar niet implementeren op mijn tv-kaartsoftware, zeker niet via het programma zelf :?

Kortom: die integratie staat nog niet zo ver terwijl er veel meer mogelijk is.
Je moet ook begrijpen dat de spelconsole ontwikkelaars niet zomaar de handdoek in de ring gaan gooien zolang er munt uit te slaan is. Bekijk maar eens hoeveel PS, PS2 én PS3's er al verkocht zijn de afgelopen jaren...

En bekijk het nu eens van je eigen standpunt (niet persoonlijk opvatten): als je alleen maar games speelt, waarom zou je dan een machine kopen van 1200€ (is toch wel het min bedrag voor een deftige game PC) als je voor 600€ (klopt dit?) al een PS3 hebt. Ok, je PC heeft dan wel een breder toepassingsgebied, maar als dat niet gebruikt wordt...
Een vriend had een nieuwe Dell gekocht. Hij liet mij de factuur zien toen ik vroeg naar de specs, hij heeft er zelf geen verstand van en hij liet zijn broer een PC bestellen met als opdracht dat die krachtig moet zijn en dat je er goed spellen mee moet kunnen spelen. Tot mijn grote verbazing koste het inclusief BTW nog geen 1100 euro. Dit was met een dual-core processor, meer dan 2 gigabyte ramgeheugen, een enorme grote harde schijf (meer dan 300 gig), een zeer krachtige videokaart, plat scherm, Windows en nog wat andere software.

Mijn antieke bak van 4 jaar geleden was duurder voor heel wat minder 8-)

Ach ja, wanneer ik over een jaar of 4-5 weer eens een nieuwe PC koop dan zal die van mij weer beter zijn :D

Je hebt dus blijkbaar al een zeer goede PC voor minder dan 1200 euro.

Uiteraard wil ik niet alleen games spelen, ik speel ze niet eens zo veel, die spellen vond ik een mooi extraatje. Af en toe speel ik eens een nieuw spel. Na de examens ga ik halflife 2 eindelijk eens spelen :D Ik ben benieuwd, ik had de demo al eens gespeeld en die zag er goed uit. De demo draaide met de grootste moeite maar sinds die tijd heb ik 256 extra RAM en een veel snellere videokaart, dus nu zal die als het goed is wel soepel draaien tegen normale instellingen.

Ik begin er nu nog maar niet aan omdat ik mezelf ken :D

Ik heb mijn PC voor mijn studie, muziek, televisie en spellen.

Is de XBOX-360 overigens niet veel krachtiger dan de PS3? Anderzijds heeft de PS3 de Blueray, een mooi extraatje.

Re: Cpu ontwikkeling tot stand gekomen?

Geplaatst: do 07 jun 2007, 10:33
door DePurpereWolf
Schwartz schreef:Ik heb een blad uit april 1995 waarin het volgende staat:

Parallel technology enters VRcades.

Een plaatje met een Pentium MotherBoard met daarop 4 parallelle Power PC Chips en 4 GLINT chips.

Hoezo Dual Core...

een Quad Core setje.

Niks nieuws onder de zon.

Zo'n setje stuurt men aan met de taal TAOS.

Waardoor de gehele structuur meteen toegepast wordt.

Heeft men meer snelheid nodig: hupsakee: nog meer Power PC chips erin.
Het bij elkaar zetten van CPU's is inderdaad niets nieuws. Ik heb in 2002 gewerkt met een 16 cpu tellende PowerPC uit het jaar anno dominis 1999. Enorm veel ram voor die tijd (16GB ofzo) maar crap hardeschijf (90GB ofzo) elke core draaide maar op 300MHz ofzo, dus het was vele male langzamer dan de pc waarop we overschakelde: P4 ht @ 3.0 GHz.

Echter, een dual-core, quad-core, is EEN cpu met twee cores OP DE ZELFDE CHIP GEBAKKEN er zijn een aantal voordelen hieruit te halen: goedkoop, de prijs van een cpu ligt aan het oppervlak dat het gebruikt, dus twee cpu's van een bepaalde grote kosten twee keer zoveel dan eentje met de helft van het oppervlak, data communicatie, het hoeft maar een aantal millimeter te verplaatsen van core naar core in een enkele cpu, anders moet het uit de ene cpu, op de pcb en in de andere cpu, veel ingewikkelder. Derde voordeel is grapjes als gedeelde l1 en l2 cache.

(nee, de xbox360 is niet krachtiger dan de PS3. Je kunt dit al halen uit het feit dat PS3 1080P op het scherm kan toveren en xbox-360 elite enkel 1080i. Kun je met wiki opzoeken wat het verschil is tussen 1080 progressive en interlaced.)

Re: Cpu ontwikkeling tot stand gekomen?

Geplaatst: do 07 jun 2007, 11:05
door Schwartz
Reaktie op het voorgaande.

Het probleem is dat men dingen uit moet rekenen ook als die niet te zien zijn want de computer weet niet of ze te zien zijn.

Wanneer ziet men een gebouw?

In een racespel, en vele andere spellen, is dit een groot probleem.

Voor elk apart object, voorbeeld een gebouw, pilaartje, een verkeersbord moet men bepalen of ze te zien zijn of niet, en er tijd is om deze te tekenen.

Als men in een dal rijdt met een bos dan kan men alleen naar voren kijken en naar achteren.

Opzij alleen maar bomen.

Men kan dan een gebouw op off zetten zodat deze niet berekend behoeft te worden.

Men gebruikt dan de resterende capaciteit voor de bomen.

Komt men aan in een stad en men kan de gehele stad overzien dan moet in principe alle gebouwen getekend worden.

Ook moet de grafische kaart van 'bitmaps' voorzien worden die gebruikt gaan worden in dat gebied.

Die bitmaps moeten door de bussen van de computer.

(bussen zijn nu 32 bits)

Voor een plaatje van 100 bij 100 pixels moet zo'n rond de 10000 * 32bits verzonden worden.

Om het plaatje af te beelden kan men naderhand voltstaan met de opdracht:

aan, coordinaat van het plaatje, horizontale afmeting, vertikale afmeting, draaihoek en diepte opdracht.

Plus een verkleuring.

(er zijn verschillende technieken!)

In de huidige software kent men nog meer opdrachten voor het verkleuren van het plaatje en effecten.

Het bovenstaande kost zo'n 20 bytes per plaatje ongeveer.

Om die 20 byte te berekenen gebruikt men de pentium en niet de grafische kaart want die zit te zwoegen op die

10000 pixels.

Dit doet de grafische kaart met speciale chips.

Het berekenen van die 20 bytes is een redelijk 'zware' opgave die per sec 20 keer wordt uigevoerd.

Het berekenen van eigenschappen van de auto en gameplay is zeg maar 40 keer per seconde maar valt in het niet vergeleken met al die plaatjes.

De pentium zit meer uit te zoeken wat er getekend moet worden en hoe het getekend moet worden.

En zit ook die bitmaps uit het geheugen te halen (of harddisk) en naar de grafische kaart te zenden.

Ook het uitzoeken van 'waar botst ik tegenaan' vergt rekencapaciteit.

Soms vergen de meest lullige dingen veel rekencapaciteit.

Men kan ook prioriteiten toepassen in de zaken die getekend moeten worden:

een gebouw/tegenstander die men moet beschieten kan men moeilijk weglaten als de capaciteit tekort schiet.

Daarom kan men deze vooraan de lijst plaatsen van zaken die moeten.

Een ventilator in het plafond die men haast niet zou zien zet men op het einde van de lijst.

Rijdt men heel snel door een stad heen dan tekent men grote gebouwen van de grond af in plaats van andersom.

Anders komen ze in de lucht te hangen wat niet bevordelijk is.

Bij een vliegspel met een helikopter tekent men eerst het dak en dan pas de onderliggende etages want anders ziet de speler niet dat er een dak is....

Grappig eigenlijk...

De CPU ontwikkeling kan verder als:

speciale chips die bomen maken en uitrekenen (windeffect)

chips die wolken maken

chipjes die rookwolken aanmaken

chips die goed zijn in parallel zoeken in lijsten

(parallel zoeken naar de data)

chips die de botsing testen snel afhandelen

chips die de prioriteiten afhandeling slim doen

chips die lijsten bewerken (filteren en opnieuw samenstellen)

Parallel geheugen beheer met processort per geheugengebied

en dan nog een logisch goede programmeertaal die dit alles goed kan besturen.

Momenteel moeten we het doen met de rommel van Microsoft, Borland etc.

Re: Cpu ontwikkeling tot stand gekomen?

Geplaatst: do 07 jun 2007, 11:21
door qrnlk
Het is opmerkelijk hoe over tijd steeds meer algorithmes verhuizen van software naar hardware.

Je begint met een groot algorithme die het hele domein kan berekenen, daarna blijkt dat 90% van de gevallen slechts in 10% van het domein zit. Een speciaal snel algorithme wordt bedacht die gebruik maakt van dit gegeven. Met de tijd bedenkt iemand een algorithme die contant is in geheugen gebruik; deze kan 80% van de gevallen aan en omdat dit algorithme nu in hardware wordt uitgevoerd is deze heel snel; De overige 20% uitzonderingen los je op met software als de hardware er niet uitkomt of je vergeet ze gewoon als het niet relevant is.

Re: Cpu ontwikkeling tot stand gekomen?

Geplaatst: do 07 jun 2007, 12:27
door Schwartz
Soms kan men door het aanpassen van een algoritme software 20 keer sneller maken.

Een klein voorbeeld:

Men schrijft bytes weg naar een geheugen (bijvoorbeeld tekst die men filtert)

Men schrijft ongeveer 10.000 bytes weg. (dit is bekend, het kan na filteren ook 100 over zijn)

men kan dit op de simpele manier doen: (pascal)

opslag:='';

en dan herhalend opslag:=opslag+chr(byte);

De computer zal voor opslag steeds nieuwe ruimte zoeken.

Men kan ook eerst

ruimte scheppen:

m:=10000+3000;

setlength(opslag,M+1);

L:=0;

nu schijft men weg met het volgende:

herhalend:

inc(l);

if L>m then begin inc(m,10000);setlength(opslag,m+1);end;

opslag[L]:=chr(byte);

Op het einde wel even setlength(opslag,L); doen want anders hebben we een fout in de lengte.

Het algoritme is een stuk complexer maar werkt tig keer sneller.

20 keer is echt evident merkbaar.

Moet een processor alles doen wat proces betreft?

Een geheugen wis met 0 kan men softwarematig doen, technisch zou men gehele geheugenblokken in 1 keer uit kunnen laten zetten op de 0 waarde.

Het gaat er dan om wat beter is: de technische meerprijs van die techniek met de behaalde snelheidswinst tegen de meerprijs geinvesteerd in andere technieken.

Het wissen van geheugen vergt soms weinig tijd tegenover andere bewerkingen.

Het lijkt me een erg moeilijke opgave waar men de grenzen moet leggen van het technisch-kunnen op digitaalgebied.

Op programmeertaal-gebied is nog veel te doen, in de taal JAVA zit een beperking die ik als programmeur verafschuw.

Ook in de oude pascal zitten onlogische zaken die heel snel eruit gehaald moeten worden door een nieuwe pascal die de zaken wel goed op orde heeft.

Programmeurs zitten niet te wachten op onleesbaretalen die alleen de logica hanteren...

Een taal moet in eerste instantie simpel zijn maar ook mogelijkheden bieden die men sowieso nodig heeft voor een snelle afhandeling.

Het commando Setlength in pascal is daarvan een onderdeel.

Helaas moet een taal vertaald worden naar een processor en daarom vond ik TAOS zo'n goed idee.

Een Virtuele Processor Code die door de inlader vertaald wordt naar de specifieke processor.

Re: Cpu ontwikkeling tot stand gekomen?

Geplaatst: do 07 jun 2007, 14:57
door qrnlk
Of je kunt de hele hardware architectuur negeren als programmeer model. Laat de compiler dat maar uitzoeken.

Talen zoals Java, C, Pascal gaan uit van een Von Neumann architectuur; dit beperkt hun expressie kracht. Vooral voor concurrency is dit lastig; Want concurrency is niet echt mogelijk voor een echte Von Neumann computer; Je werkt in deze talen op het verkeerde niveau en bent meer bezig met het goed krijgen van de communicatie tussen de verschillende (veel te zware) treads dan met het daadwerkelijke programma.

Functionele talen (Lisp, Haskell, OCaml, Erlang, etc) zijn architectuur onafhankelijk, en dat maakt het eenvoudiger om het parallel te laten draaien.