Forumregels
(Middelbare) school-achtige vragen naar het forum "Huiswerk en Practica" a.u.b.
Zie eerst de Huiswerkbijsluiter
leon86
Artikelen: 0
Berichten: 4
Lid geworden op: di 07 feb 2012, 19:27

Entropie

Een bron genereert een onafhankelijke rij symbolen uit het alfabet {0,1}. De kans

op een 0 is 0, 9, de kans op een 1 is 0, 1. De rij getallen wordt met een ‘Run-Length

codering’ gecodeerd tot een rij met symbolen uit het alfabet {a,b,c,d,e, f ,g,h, i}.

Tenslotte worden deze ‘run-length’ codewoorden weer gecodeerd met een Huffmancode.

b-code | r-code

1 | a

01 | b

001 | c

0001 | d

00001 | e

000001 | f

0000001 | g

00000001 | h

00000000 | i

Kan iemand mij misschien uitleggen welke stappen ik kan nemen om achter de entropie van de bron te komen?

Zelf dacht ik dat H(X)= -9 pi(0,9|0,1)log2(0,9)

pi = de kans/waarschijnlijkheid

alleen weet ik niet welke getal de variabel x moet zijn
Gebruikersavatar
Jan van de Velde
Moderator
Artikelen: 0
Berichten: 51.341
Lid geworden op: di 11 okt 2005, 20:46

Re: Entropie

Iemand die hier een handje kan toesteken?
ALS WIJ JE GEHOLPEN HEBBEN...
help ons dan eiwitten vouwen, en help mee ziekten als kanker en zo te bestrijden in de vrije tijd van je chip...
http://sciencetalk.nl/forumshowtopic=59270
Gebruikersavatar
Drieske
Artikelen: 0
Berichten: 10.179
Lid geworden op: za 12 jul 2008, 17:07

Re: Entropie

Verplaatst naar Wiskunde.
Zoek je graag naar het meest interessante wetenschapsnieuws? Wij zoeken nog een vrijwilliger voor ons nieuwspostteam.
Gebruikersavatar
Xenion
Artikelen: 0
Berichten: 2.609
Lid geworden op: za 21 jun 2008, 10:41

Re: Entropie

Hoeveel symbolen verzendt de bron?

Wat is de kans op elk symbool?

Wat is de definitie van entropie?

Als je de definitie en de kansen kent, dan kan je toch makkelijk de entropie berekenen?

De X duidt gewoon aan dat je de entropie van de bron wil kennen, H(Y) is de entropie van de ontvanger.

Verder heb je ook nog H(X,Y), H(X|Y) en H(Y|X) maar die definities verschillen een beetje.

Terug naar “Wiskunde”