De broncode in een notendop (geen echte notendop natuurlijk... een spreekwoordelijke notendop):
Oh, interessant, die techniek kende ik niet. Maar zoals je zelf ook al stelt blijft dat evengoed een puur magnetisch proces (zowel de opslag als het lezen/wegschrijven), de laser heeft hier verder niets met optisch te maken. En in het verlengde daarvan denk ik niet dat deze techniek de verschuiving naar SSD zal omkeren.holland schreef:Ik bedoel hier dus niet mee dat de data overdracht met licht gebeurt zoals in de bronlink vermelde technologie. maar dat aan het proces ook een laser deelneemt.
Reeds in 2002
Bron
En 8 jaar later wordt dit nog steeds niet toegepast of toch? Eergisteren nog wat HDD open geprutst, weliswaar van voor 2002.holland schreef:Heb je weleens een harde schijf open gemaakt?
Zo ja vertel mij dan eens waar die laser diode voor dient die over de schijf heen loopt tijdens het lezen en schrijven.
Open anders even deze link en scroll de pagina naar beneden en lees aldaar de volgende text:
Nee, de minidisc is een magnetische schijf. Maar bij het beschrijven wordt de schrijfplek verhit door een laser om de magnetisering te vergemakkelijken. Zou best kunnen dat deze truc ook in HDD's wordt toegepast.De mini disc van Sony, was dat geen optische schijf?
Zou inderdaad best wel dezelfde technologie kunnen zijn. Beiden hebben het althans over warmteNee, de minidisc is een magnetische schijf. Maar bij het beschrijven wordt de schrijfplek verhit door een laser om de magnetisering te vergemakkelijken. Zou best kunnen dat deze truc ook in HDD's wordt toegepast.
... ...demonstreert met succes Heat-Assisted Magnetic Recording. HAMR slaat magnetisch op met behulp van laser-thermische bijstand en poogt uiteindelijk de gebiedsdichtheid te verhogen met meer dan 100 keer de 2002 niveaus.
Toegegeven, de laatste harde schijf die ik openhaalde dateerde uit de tijd dat 10MB spitstechnologie was, en het is inderdaad mogelijk dat er lasers zitten in harde schijven, maar deze worden volgens mij niet gebruikt voor de toepassingen die je hier aanhaalt. Je bron maakt overigens nog steeds geen gewag van commerciele toepassingen van lasers in harde schijven, enkel academische resultaten.holland schreef:Ik bedoel hier dus niet mee dat de data overdracht met licht gebeurt zoals in de bronlink vermelde technologie. maar dat aan het proces ook een laser deelneemt.
Reeds in 2002
Quote
2002: Een van de vele verwezenlijkingen in de 2002 technologie; Seagate demonstreert met succes Heat-Assisted Magnetic Recording. HAMR slaat magnetisch op met behulp van laser-thermische bijstand en poogt uiteindelijk de gebiedsdichtheid te verhogen met meer dan 100 keer de 2002 niveaus.
Bron
Dit komt uit een artikel van de IEEE, toch wel een (misschien zelfs de) autoriteit op gebied van electrical engineering. Het is overigens geschreven in maart 2009, dus ik geloof niet dat HAMR al commercieel beschikbaar is. Meer zelfs, het is nog niet eens zeker of de technologie het gaat halen.Which of these technologies will eventually replace present-day magnetic recording is anyones guess, Schlesinger says. If HAMR is going to have a chance in the marketplace, then in five years I would expect to see some commercial system out there.
Strange dat dit artikel niets zegt over Fujitsu maar enkel over Seagate.dit:
Er is dan wel nog een 2e factor in de discusse, namelijk dat het algoritme om die codering te decoderen net zo groot wordt als al de films samenHet absolute minimum aan benodigde geheugenruimte wordt dan bepaald door het maximale aantal als verschillend ervaren eigenlijke films.
Mijn voorstel betreft een verschuiving van het probleem, daar heb je gelijk in. Maar ik zie niet zo gauw dat er zo - per definitie - geen winst meer te behalen is. Het is niet de bedoeling alle mogelijke echte films ergens op te slaan, en die dan aan te roepen. Dat zou inderdaad een schijnoplossing zijn. Wat je wel zou moeten doen is de steeds terugkerende patronen in echte films rubriceren, en die aanroepen. De daarna nog ontbrekende gegevens kunnen op de gebruikelijke manier worden ingekleurd.317070 schreef:Er is dan wel nog een 2e factor in de discusse, namelijk dat het algoritme om die codering te decoderen net zo groot wordt als al de films samen
M.a.w. zo'n codering is een schijncodering, de benodigde opslagruimte blijft even groot, maar nu kruipt bijna alle ruimte in je decoderingsalgrotime. Dat het een ondergrens is klopt wel.
Daar heb je gelijk in, er is inderdaad nog (veel) verbetering mogelijk, maar praktisch is het niet zo interessant. Een gewone mens bekijkt iets van een duizendtal films op 1 dvd-speler. (oke, een echte cinefiel) Als je die dvd-speler dan moet uitrusten om alle patronen van miljarden films op te slaan, dan ben je niet echt efficient bezig. Je kunt er zoveel aan verbeteren als je wil, maar je grootte-orde van alle (mogelijke) zinvolle films is zo ongeloofelijk groot, dat zo'n algoritme nog niet vast te leggen is.Bartjes schreef:Wat je wel zou moeten doen is de steeds terugkerende patronen in echte films rubriceren, en die aanroepen. De daarna nog ontbrekende gegevens kunnen op de gebruikelijke manier worden ingekleurd.
Hoe dit in de praktijk zou moeten, weet ik zelf ook niet.
Van de praktische aspecten heb ik geen kaas gegeten. Het leek mij alleen wel leuk om te bedenken hoe je theoretisch gezien onder de gebruikelijke datacompressie-grens zou kunnen duiken. Zou het iets zijn om steeds alleen de veranderingen t.o.v. van een aantal karakteristieke shots en acties (gezichten, locaties, handelingen, etc.) te coderen - of wordt dit al gedaan?317070 schreef:Daar heb je gelijk in, er is inderdaad nog (veel) verbetering mogelijk, maar praktisch is het niet zo interessant. Een gewone mens bekijkt iets van een duizendtal films op 1 dvd-speler. (oke, een echte cinefiel) Als je die dvd-speler dan moet uitrusten om alle patronen van miljarden films op te slaan, dan ben je niet echt efficient bezig. Je kunt er zoveel aan verbeteren als je wil, maar je grootte-orde van alle (mogelijke) zinvolle films is zo ongeloofelijk groot, dat zo'n algoritme nog niet vast te leggen is.
Er zijn wel al dingen die die richting uitgaan, zoals flash filmpjes waarvan de lettertypes al op je PC opgeslagen zitten, of ingame videos die je dan kunt afspelen binnen het spelletje op je eigen PC. (die laatste gaan wel gemakkelijk onder de MB voor enkele minuten)
Maar er is een reden dat films als Shrek niet afgespeeld worden door alle frames 1 voor 1 te renderen. Dit zou een zeer sterke compressie betekenen, anderzijds hebben de mainframes bij pixar al enkele mintuen nodig om 1 enkele frame te renderen. Ze moeten soms een uur rekenen voor 1 seconde film. Dus je ziet: de compressie kan er zeer sterk zijn, maar het algoritme wordt dan zo zwaar dat het niet meer praktisch haalbaar is.
Dus het algoritme moet passen op de gegeven ruimte, moet snel genoeg kunnen rekenen en de extra data voor de specifieke film moet zo klein mogelijk zijn om praktisch te kunnen zijn.
Wel, van ieder afzonderlijke shot zijn er zogenaamde I-beelden. Dit zijn beelden die feitelijk als foto opgeslagen zijn. Na een I-beeld heb je een hele hoop P-beelden. Dit zijn beelden die enkel afhangen van beelden die ervoor gekomen zijn. Tussen die beelden zijn er ook nog de B-beelden, dat zijn de beelden die afhangen van beelden die zowel ervoor als erna komen.Van de praktische aspecten heb ik geen kaas gegeten. Het leek mij alleen wel leuk om te bedenken hoe je theoretisch gezien onder de gebruikelijke datacompressie-grens zou kunnen duiken. Zou het iets zijn om steeds alleen de veranderingen t.o.v. van een aantal karakteristieke shots en acties (gezichten, locaties, handelingen, etc.) te coderen - of wordt dit al gedaan?
Je merkt, in het klein word je idee al gebruikt. Maar videocodecs zijn iets die zich meestal op de rand van het mogelijke zitten. Ieder beeld vereist veel geheugen, en iedere vorm van compressie en decompressie loopt al snel tegen rekentechnische grenzen aan. Vrijwel nooit is de compressie zelf de grens, meestal\altijd zijn het de rekencapaciteiten aan beide kanten voor het coderen en decoderen die de begrenzing vormen.