Ik ben nieuw op het forum en de vraag die ik nu ga stellen was de aanleiding om mij aan te melden, maar gezien mijn interesse in wetenschap ben ik voornemens hier wat meer rond te gaan neuzen
![Lach :)](./images/smilies/icon_e_smile.gif)
Mijn vraag gaat eigenlijk over een stukje simpele theorie, maar toch zit ik met een vraag waar ik geen bevredigend antwoord op kan vinden.
Ik ben bekend met de formules U = I * R en P = U * I.
Nu had ik mijzelf het volgende voorgesteld.. Stel dat ik wil berekenen hoeveel stroom er loopt over een bepaalde kabel en dat wil ik gaan berekenen bij een voltage van 230V, de kabel heeft een zelfverzonnen weerstand van 10 Ohm (ik weet dat dit niet realistisch is, maar het gaat om het idee). Dan kan ik dus berekenen dat ik een stroom heb van 23A. Dit betekent dat ik een bepaalde dikte kabel nodig heb voor die 23A.
Nu weet ik dat het een feit is dat wanneer je de spanning omhoog haalt dan de kabels dunner kunnen worden. Als ik nu i.p.v. die 230V in mijn voorbeeld daar 3000V voor invul, dan zou ik dus een dunnere kabel kunnen gebruiken (een dikkere kabel geeft minder weerstand). Maar, 3000/10 = 300A. Die 300A doet mij denken dat ik juist weer een dikkere kabel nodig heb, want meer stroom betekent een grotere warmte ontwikkeling. Dus nu heb ik de spanning verhoogd om een dunnere kabel te kunnen gebruiken en gaat mijn stroom omhoog wat mij doet denken dat ik toch weer een dikkere kabel nodig heb.
Misschien denk ik te simpel en het ligt vast wat genuanceerder, maar wat mis ik? Is het effect van warmte een stuk kleiner dan het effect van de dikkere kabel?
Ik kan het niet loslaten, kan iemand me helpen?
![Zeer gelukkig :D](./images/smilies/icon_e_biggrin.gif)