Re: De Broncode
Geplaatst: di 26 jul 2005, 20:50
Het gaat in dit topic veel over films. Ik wil het gewoon in het algemeen over data-opslag hebben en houd het abstract.
Volgens mij heb ik een goed idee. Ik weet niet of het nieuw is, want ik heb niet alle voorgaande posts helemaal begrepen.
Op maandag 10 januari schreef Boaz:
Bij normale binaire opslag is een bit een 1 of een 0.
Als je info opslaat in clusters van 2 bits, kan zo’n cluster 4 verschillende waarden hebben: 00, 01, 10 en 11. Dus netto heb je dan een verdubbeling van de geheugencapaciteit.
Als je info opslaat in clusters van 3 bits, kan zo’n cluster 8 verschillende waarden hebben: 000, 001, 010, 100, 011, 110, 101 en 111. Dus netto heb je dan 8/3 keer de oorspronkelijke geheugencapaciteit.
Als je clusters van 5 bits gebruikt, heb je per cluster 32 mogelijkheden, wat resulteert in een “geheugencapaciteitstoenamefactor” van meer dan 6.
Als je clusters van 100 bits gebruikt, heb je per cluster 1,27 *10^30 mogelijkheden, wat resulteert in een “geheugencapaciteitstoenamefactor” van 1,27 *10^28!
Je hebt alleen een algoritme nodig om deze manier van opslaan te decoderen. Hoe groter de clusters, des te ingewikkelder het decoderen, maar het moet mogelijk zijn.
Ik hoor graag reacties of ik ergens een denkfout heb gemaakt.
Volgens mij heb ik een goed idee. Ik weet niet of het nieuw is, want ik heb niet alle voorgaande posts helemaal begrepen.
Op maandag 10 januari schreef Boaz:
Welnu; binair data opslaan is eigenlijk helemaal niet efficient. Volgens mij kun je veel efficienter informatie digitaal opslaan door het beter te ordenen. Als je informatie niet meer opslaat als bits, maar als clusters van bits, zijn er in theorie onbeperkt veel mogelijkheden.Hoe krijg ik een getallenreeks logisch kleiner zo dat ik hem laten ook weer groter kan krijgen. Als je dat voor elkaar kijgt doe ik de rest.
Bij normale binaire opslag is een bit een 1 of een 0.
Als je info opslaat in clusters van 2 bits, kan zo’n cluster 4 verschillende waarden hebben: 00, 01, 10 en 11. Dus netto heb je dan een verdubbeling van de geheugencapaciteit.
Als je info opslaat in clusters van 3 bits, kan zo’n cluster 8 verschillende waarden hebben: 000, 001, 010, 100, 011, 110, 101 en 111. Dus netto heb je dan 8/3 keer de oorspronkelijke geheugencapaciteit.
Als je clusters van 5 bits gebruikt, heb je per cluster 32 mogelijkheden, wat resulteert in een “geheugencapaciteitstoenamefactor” van meer dan 6.
Als je clusters van 100 bits gebruikt, heb je per cluster 1,27 *10^30 mogelijkheden, wat resulteert in een “geheugencapaciteitstoenamefactor” van 1,27 *10^28!
Je hebt alleen een algoritme nodig om deze manier van opslaan te decoderen. Hoe groter de clusters, des te ingewikkelder het decoderen, maar het moet mogelijk zijn.
Ik hoor graag reacties of ik ergens een denkfout heb gemaakt.