Gebruikersavatar
Professor Puntje
Artikelen: 0
Berichten: 7.561
Lid geworden op: vr 23 okt 2015, 23:02

Re: Allerlei tensor-vragen

Ik blijf daar met name binnen de wiskunde als exact vak moeite mee houden. Is het ook mogelijk de definitie van het tensorproduct aan te passen zodat je voor \( S \otimes R \) per definitie het product van \( S^{**} \) en \( R^{**} \) neemt. Dan hoef je toch die goochelarij van het gelijk stellen van ongelijke dingen niet toe te passen...?
Gebruikersavatar
Math-E-Mad-X
Artikelen: 0
Berichten: 2.907
Lid geworden op: wo 13 sep 2006, 17:31

Re: Allerlei tensor-vragen

Professor Puntje schreef: za 21 aug 2021, 09:52 Is het ook mogelijk de definitie van het tensorproduct aan te passen zodat je voor \( S \otimes R \) per definitie het product van \( S^{**} \) en \( R^{**} \) neemt.
Dat zal ongetwijfeld kunnen, maar als je dat consequent doet dan krijg je ongelofelijk lange en ingewikkelde notaties die totaal niet meer te volgen zijn. Dat lijkt me veel minder wenselijk. En je schiet er verder niets mee op. Het enige wat je er aan hebt is dat je jezelf 'goed kan voelen' over het feit dat je notatie correct is.
Dan hoef je toch die goochelarij van het gelijk stellen van ongelijke dingen niet toe te passen...?
Maar dit is helemaal niet een geval van 'verschillende dingen aan elkaar gelijk stellen'. De operator \(\frac{\partial}{\partial x}\) is zowel een differentiaaloperator als een vector. Er is geen enkele wiskundige wet die zegt dat een ding niet twee dingen teglijk kan zijn.

In de wiskunde kun je zeggen dat een ding \(x\) van het type \(X\) is, als \(x\) voldoet aan de axioma's van \(X\). En er is geen enkele reden waarom een wiskundig object niet zowel aan de axioma's van \(X\) kan voldoen als aan de axioma's van \(Y\).

Dat is hier ook het geval. \(\frac{\partial}{\partial x}\) voldoet aan de axioma's van een differentiaaloperator, maar voldoet ook aan de axioma's van een vector. Daar valt niks op af te dingen.
Gebruikersavatar
Math-E-Mad-X
Artikelen: 0
Berichten: 2.907
Lid geworden op: wo 13 sep 2006, 17:31

Re: Allerlei tensor-vragen

Professor Puntje schreef: za 21 aug 2021, 09:52 Dan hoef je toch die goochelarij van het gelijk stellen van ongelijke dingen niet toe te passen...?
Okee, als je het hier hebt over het gelijkstellen van een vector uit de ruimte V aan een co-co-vector uit de ruimte \(V^{**}\) dan heb je wel iets meer een punt, maar zoals ik hierboven al zei schiet je er weinig mee op om dat onderscheid zo strikt te maken.

Bijvoorbeeld, als ik zeg dat 1 gelijk is aan \(\frac{2}{2}\) dan heb je daar toch ook geen moeite mee? Maar strikt genomen is de verzameling der gehele getallen geen deelverzameling van de rationale getallen. De rationale getallen zijn immers gedefinieerd als equivalentieklassen van paren van gehele getallen. Dus een rationaal getal kan technisch gezien nooit gelijk zijn aan een geheel getal. Maar zelfs de meest strikte wiskundige zal daar niet moeilijk over doen. En als jij in het dagelijks leven iets uit moet rekenen, dan ga je daar toch ook niet helemaal rekening mee houden?
Gebruikersavatar
Professor Puntje
Artikelen: 0
Berichten: 7.561
Lid geworden op: vr 23 okt 2015, 23:02

Re: Allerlei tensor-vragen

Mijn doel is niet om dagelijks met de tensorrekening te gaan rekenen, maar om zo precies mogelijk te begrijpen wat dat voor dingen zijn. En wat extra pedanterie mijnerzijds neem ik daarbij op de koop toe.

Het getallenvoorbeeld dat je geeft is interessant omdat ik daar ook zelf mee heb gezeten. Ik ben weliswaar geen wiskundige maar er bestaan dus inderdaad lieden zoals ikzelf die met dergelijk moeilijkheden zitten. Uiteindelijk heb ik mij ermee verzoend dat het legitiem is om een bepaald type getallen verder vanuit de daarvoor geldende axioma's te gebruiken zodra er een model (met equivalentieklassen o.i.d.) voor beschikbaar is. Als ik een keer heb gezien dat het mag, heb ik er daarna ook geen problemen meer mee om de formele details te vergeten.

Wat hier het geval is dat is dat je twee vectoren die als functies beschouwd een verschillend domein hebben gelijkstelt. Afhankelijk van wat je daar verder mee doet kan dat tot logische tegenstrijdigheden leiden. Ik heb helaas nog nergens een voor mij begrijpelijke onderbouwing gezien waarom dat hier veilig is.
Gebruikersavatar
Professor Puntje
Artikelen: 0
Berichten: 7.561
Lid geworden op: vr 23 okt 2015, 23:02

Re: Allerlei tensor-vragen

Als het mogelijk is om het tensorproduct als het product van de dubbel-dualen van de factoren te definiëren dan zou ik met die definitie de basiseigenschappen van het tensorproduct kunnen bewijzen, en dan blijft de schade aan formele ballast toch tot een minimum beperkt?
Gebruikersavatar
Math-E-Mad-X
Artikelen: 0
Berichten: 2.907
Lid geworden op: wo 13 sep 2006, 17:31

Re: Allerlei tensor-vragen

Professor Puntje schreef: za 21 aug 2021, 13:16 Wat hier het geval is dat is dat je twee vectoren die als functies beschouwd een verschillend domein hebben gelijkstelt. Afhankelijk van wat je daar verder mee doet kan dat tot logische tegenstrijdigheden leiden. Ik heb helaas nog nergens een voor mij begrijpelijke onderbouwing gezien waarom dat hier veilig is.
Maar dat is heel simpel: gebruik gewoon twee verschillende symbolen voor de twee verschillende functies en je problemen verdwijnen als sneeuw voor de zon.

Bijvoorbeeld: schrijf de differentiaaloperator as \(\frac{\partial}{\partial x}\) en schrijf de corresponderende vector as \(\frac{\hat{\partial}}{\partial x}\). En definieer eventueel ook een afbeelding \(f\) die elke differentiaaloperator afbeeldt op de corresponderende vector, zodat je gelijkheden op kan schrijven van de vorm \(f(\frac{\partial}{\partial x} ) = \frac{\hat{\partial}}{\partial x}
\)


Het punt is dat deze oplossing voor professionele wiskundigen zo ontzettend voor de hand ligt, dat ze de moeite niet nemen om dat ook daadwerkelijk expliciet te doen. In plaats daarvan doen ze dit gewoon in gedachten.
Gebruikersavatar
Professor Puntje
Artikelen: 0
Berichten: 7.561
Lid geworden op: vr 23 okt 2015, 23:02

Re: Allerlei tensor-vragen

Dat de differentiaaloperator een vector is begrijp ik al, dat is mijn probleem niet. Of bedoel je met de 'corresponderende vector' de dubbel-duale van de differentiaaloperator. In dat geval zou ik dan gewoon het standaard tensorproduct kunnen gebruiken. Dan krijg ik voor je voorbeeld zoiets:
\(\)
\( \sum_{i_1, i_2, j_1, j_2} T^{i_1 i_2 }_{j_1 j_2} \cdot \frac{\hat{\partial}}{\partial x^{i_1}} \otimes \frac{\hat{\partial}}{\partial x^{i_2}} \otimes dx^{j_1}\otimes dx^{j_2} \)
Gebruikersavatar
Math-E-Mad-X
Artikelen: 0
Berichten: 2.907
Lid geworden op: wo 13 sep 2006, 17:31

Re: Allerlei tensor-vragen

Professor Puntje schreef: za 21 aug 2021, 20:51 Dat de differentiaaloperator een vector is begrijp ik al, dat is mijn probleem niet. Of bedoel je met de 'corresponderende vector' de dubbel-duale van de differentiaaloperator
In mijn voorbeeld had ik het over het feit dat de de differentiaaloperator ook een vector is. Maar het principe werkt exact hetzelfde om je probleem op te lossen met het feit dat vectoren als co-co-vectoren beschouwd kunnen worden, en het werkt ook voor het voorbeeld met de gehele getallen en de rationale getallen.

Dan krijg ik voor je voorbeeld zoiets:
\( \sum_{i_1, i_2, j_1, j_2} T^{i_1 i_2 }_{j_1 j_2} \cdot \frac{\hat{\partial}}{\partial x^{i_1}} \otimes \frac{\hat{\partial}}{\partial x^{i_2}} \otimes dx^{j_1}\otimes dx^{j_2} \)
Als \(\frac{\hat{\partial}}{\partial x^{i_2}}\) hier de co-co-vector voorstelt corresponderend met de vector \(\frac{\partial}{\partial x^{i_2}} \), dan klopt dat inderdaad.

Ik denk alleen dat het vooral van belang is dat je leert dit trucje in gedachten te gebruiken, in plaats van het telkens expliciet uit te schrijven, want anders maak je het voor anderen die dit forum lezen heel erg ingewikkeld om je nog te volgen.

Verder is het vooral ook belangrijk dat je deze truc toepast wanneer je een tekst leest in plaats van opschrijft. Anders blijf je in de problemen komen wanneer je wiskundige teksten leest waar men dingen gelijkstelt die eigenlijk niet gelijk zijn. Je moet je gewoon voorstellen dat de schrijver deze truc dan ook stilzwijgend toepast.

Verder moet je je ook beseffen dat je er met het uitschrijven van co-co-vectoren er nog niet bent. Je krijgt in de ART namelijk waarschijnlijk ook te maken met producten van meerdere tensoren (zie bijvoorbeeld je topic over kronecker delta's, waarin je meerdere kronecker delta's met elkaar vermenigvuldigt). In dat geval vat men een tensor op als een lineaire afbeelding die een andere tensor als argument neemt. Als die andere tensor co-co-vectoren bevat, dan moet die eerste tensor dus co-co-co-vectoren bevatten! En zo kun je eindeloos doorgaan. Als je dat allemaal expliciet wil gaan uitschrijven dan wordt het allemaal wel heel ingewikkeld... Dat probleem wordt vermeden door co-co-vectoren gewoon als vectoren op te vatten.
Gebruikersavatar
Professor Puntje
Artikelen: 0
Berichten: 7.561
Lid geworden op: vr 23 okt 2015, 23:02

Re: Allerlei tensor-vragen

Ja - het is inderdaad van belang dat ik dat in gedachten leer te doen. Ik ben nog wat op zoek geweest naar uitleg van wat je in zulke gevallen (als je dat zuiver formeel bekijkt) stilzwijgend precies doet, en kennelijk gaat het hier over "abuse of notation". Graag zou ik daar een boek of uitgebreid artikel over lezen, maar dat is nog niet zo eenvoudig te vinden. De doelgroep daarvoor zal dan ook wel erg klein zijn, misschien maar één persoon. Anderen leren dit al doende.
Gebruikersavatar
Professor Puntje
Artikelen: 0
Berichten: 7.561
Lid geworden op: vr 23 okt 2015, 23:02

Re: Allerlei tensor-vragen

Math-E-Mad-X schreef: vr 20 aug 2021, 10:01 Je moet de componenten gewoon schrijven in combinatie met de basis (co-)vectoren. Dus bijvoorbeeld \( T^{i_1 i_2 }_{j_1 j_2} \) wordt:
\(\sum_{i_1, i_2, j_1, j_2} T^{i_1 i_2 }_{j_1 j_2} \cdot \frac{\partial}{\partial x^{i_1}} \otimes \frac{\partial}{\partial x^{i_2}} \otimes dx^{j_1}\otimes dx^{j_2}\)
Ik wil nog nagaan of dat inderdaad een tensor is, en of die ook de juiste componenten oplevert. En daarna gun ik mijn hoofd een rustpauze van het tensorgebeuren want mijn arme hersenen zijn inmiddels aardig overwerkt.

Een som van gelijksoortige tensoren is ook zelf weer een tensor van het zelfde type dus we hoeven enkel te controleren of de tensorproducten \( \frac{\partial}{\partial x^{i_1}} \otimes \frac{\partial}{\partial x^{i_2}} \otimes dx^{j_1}\otimes dx^{j_2} \) tensoren van een zelfde type zijn. Gezien de wijze waarop die tensorproducten genoteerd zijn is hier sprake van een differentieerbare manifold \( \mathcal{M} \) met een punt p in die manifold waaraan via een kaartafbeelding \( \varphi \) een raakvectorruimte \( V_p \) met bijbehorende duale raakcovectorruimte \( V^*_p \) geconstrueerd zijn. De vectoren \( \frac{\partial}{\partial x^{i_1}} \) en \( \frac{\partial}{\partial x^{i_2}} \) accepteren geen covectoren uit \( V^*_p \) dus moeten we aannemen dat hier eigenlijk (als een abuse of notation) de co-covectoren van \( \frac{\partial}{\partial x^{i_1}} \) en \( \frac{\partial}{\partial x^{i_2}} \) bedoeld zijn. Immers:

- De vectoren van \( V_p \) beelden \( \mathbb{F} \) (de verzameling van oneindig differentieerbare functies van \( \mathcal{M} \) naar \( \mathbb{R} \)) naar \( \mathbb{R} \) af.

- De covectoren van \( V^*_p \) beelden \( V_p \) naar \( \mathbb{R} \) af.

- De co-covectoren van \( V^{**}_p \) beelden \( V^*_p \) naar \( \mathbb{R} \) af.

Dus de co-covectoren van \( \frac{\partial}{\partial x^{i_1}} \) en \( \frac{\partial}{\partial x^{i_2}} \) accepteren wel covectoren uit \( V^*_p \).

Zijn de tensorproducten \( \frac{\partial}{\partial x^{i_1}} \otimes \frac{\partial}{\partial x^{i_2}} \otimes dx^{j_1}\otimes dx^{j_2} \) nu inderdaad multi-lineaire functionalen van \( V^*_p \times V^*_p \times V_p \times V_p \) naar \( \mathbb{R} \) ? We hebben per definitie:
\(\)
\( \left [ \frac{\partial}{\partial x^{i_1}} \otimes \frac{\partial}{\partial x^{i_2}} \otimes dx^{j_1}\otimes dx^{j_2} \right ](\mathbf{\hat{u}},\mathbf{\hat{v}},\mathbf{y}.\mathbf{z}) = \\ \left [ \frac{\partial}{\partial x^{i_1}} \right ]( \mathbf{\hat{u}} ) \cdot \left [ \frac{\partial}{\partial x^{i_2}} \right ]( \mathbf{\hat{v}} ) \cdot \left [ dx^{j_1}\right ]( \mathbf{y} ) \cdot \left [ dx^{j_2} ] \right ] ( \mathbf{z} ) \)
\(\)
Dus hebben we inderdaad te doen met afbeeldingen van \( V^*_p \times V^*_p \times V_P \times V_p \) naar \( \mathbb{R} \). En aangezien covectoren en dus ook co-covectoren lineaire functies zijn moeten de boven vermelde tensorproducten multi-linear zijn. Het zijn dus tensoren van hetzelfde type.

(Later verder...)
Gebruikersavatar
Professor Puntje
Artikelen: 0
Berichten: 7.561
Lid geworden op: vr 23 okt 2015, 23:02

Re: Allerlei tensor-vragen

Tot slot nog even controleren of \( \sum_{i_1, i_2, j_1, j_2} T^{i_1 i_2 }_{j_1 j_2} \cdot \frac{\partial}{\partial x^{i_1}} \otimes \frac{\partial}{\partial x^{i_2}} \otimes dx^{j_1}\otimes dx^{j_2} \) bij het invullen van de basis(co)vectoren \( dx^{k_1} , \,\, dx^{k_2} , \,\, \frac{\partial}{\partial x^{l_1}} \, , \,\, \frac{\partial}{\partial x^{l_2}}\) de juiste tensorcomponenten oplevert:
\(\)
\( \left [\sum_{i_1, i_2, j_1, j_2} T^{i_1 i_2 }_{j_1 j_2} \cdot \frac{\partial}{\partial x^{i_1}} \otimes \frac{\partial}{\partial x^{i_2}} \otimes dx^{j_1}\otimes dx^{j_2} \right ]( dx^{k_1} \, , \,\, dx^{k_2} \, , \,\, \frac{\partial}{\partial x^{l_1}} \, , \,\, \frac{\partial}{\partial x^{l_2}} ) \,\, = \\ \sum_{i_1, i_2, j_1, j_2} T^{i_1 i_2 }_{j_1 j_2} \cdot \left [ \frac{\partial}{\partial x^{i_1}} \otimes \frac{\partial}{\partial x^{i_2}} \otimes dx^{j_1}\otimes dx^{j_2} \right ] ( dx^{k_1} \, , \,\, dx^{k_2} \, , \,\, \frac{\partial}{\partial x^{l_1}} \, , \,\, \frac{\partial}{\partial x^{l_2}} ) \)
\(\)
\( \left [\sum_{i_1, i_2, j_1, j_2} T^{i_1 i_2 }_{j_1 j_2} \cdot \frac{\partial}{\partial x^{i_1}} \otimes \frac{\partial}{\partial x^{i_2}} \otimes dx^{j_1}\otimes dx^{j_2} \right ]( dx^{k_1} \, , \,\, dx^{k_2} \, , \,\, \frac{\partial}{\partial x^{l_1}} \, , \,\, \frac{\partial}{\partial x^{l_2}} ) \,\, = \\ \sum_{i_1, i_2, j_1, j_2} T^{i_1 i_2 }_{j_1 j_2} \cdot \frac{\partial}{\partial x^{i_1}}( dx^{k_1} ) \cdot \frac{\partial}{\partial x^{i_2}}( dx^{k_2} ) \cdot dx^{j_1}( \frac{\partial}{\partial x^{l_1}} ) \cdot dx^{j_2} ( \frac{\partial}{\partial x^{l_2}} ) \)
\(\)
\( \left [\sum_{i_1, i_2, j_1, j_2} T^{i_1 i_2 }_{j_1 j_2} \cdot \frac{\partial}{\partial x^{i_1}} \otimes \frac{\partial}{\partial x^{i_2}} \otimes dx^{j_1}\otimes dx^{j_2} \right ]( dx^{k_1} \, , \,\, dx^{k_2} \, , \,\, \frac{\partial}{\partial x^{l_1}} \, , \,\, \frac{\partial}{\partial x^{l_2}} ) \,\, = \\ \sum_{i_1, i_2, j_1, j_2} T^{i_1 i_2 }_{j_1 j_2} \cdot \delta^{k_1}_{i_1} \cdot \delta^{k_2}_{i_2} \cdot \delta^{j_1}_{l_1} \cdot \delta^{j_2}_{l_2}\)
\(\)
\( \left [\sum_{i_1, i_2, j_1, j_2} T^{i_1 i_2 }_{j_1 j_2} \cdot \frac{\partial}{\partial x^{i_1}} \otimes \frac{\partial}{\partial x^{i_2}} \otimes dx^{j_1}\otimes dx^{j_2} \right ]( dx^{k_1} \, , \,\, dx^{k_2} \, , \,\, \frac{\partial}{\partial x^{l_1}} \, , \,\, \frac{\partial}{\partial x^{l_2}} ) \,\, = T^{k_1 k_2 }_{l_1 l_2} \)
Gebruikersavatar
Professor Puntje
Artikelen: 0
Berichten: 7.561
Lid geworden op: vr 23 okt 2015, 23:02

Re: Allerlei tensor-vragen

Professor Puntje schreef: zo 22 aug 2021, 22:05
\( \left [\sum_{i_1, i_2, j_1, j_2} T^{i_1 i_2 }_{j_1 j_2} \cdot \frac{\partial}{\partial x^{i_1}} \otimes \frac{\partial}{\partial x^{i_2}} \otimes dx^{j_1}\otimes dx^{j_2} \right ]( dx^{k_1} \, , \,\, dx^{k_2} \, , \,\, \frac{\partial}{\partial x^{l_1}} \, , \,\, \frac{\partial}{\partial x^{l_2}} ) \,\, = \\ \sum_{i_1, i_2, j_1, j_2} T^{i_1 i_2 }_{j_1 j_2} \cdot \frac{\partial}{\partial x^{i_1}}( dx^{k_1} ) \cdot \frac{\partial}{\partial x^{i_2}}( dx^{k_2} ) \cdot dx^{j_1}( \frac{\partial}{\partial x^{l_1}} ) \cdot dx^{j_2} ( \frac{\partial}{\partial x^{l_2}} ) \)
Hierin komen uitdrukkingen van de vorm \( \frac{\partial}{\partial x^{i_{\mu}}} \) vier keer voor als een abuse of notation in de zin van de co-covector van \( \frac{\partial}{\partial x^{i_{\mu}}} \) en ook nog vier keer in de oorspronkelijke betekenis van \( \frac{\partial}{\partial x^{i_{\mu}}} \) als afbeelding van \( \mathbb{F} \) naar \( \mathbb{R} \) , en dat allemaal in één en dezelfde vergelijking. Kennelijk zat mij dat nog steeds niet lekker want afgelopen nacht werd ik vanuit een onrustige halfslaap wakker met het onderstaande idee om deze situatie wat te fatsoeneren.

Beschouw als het formele object dat in de zin van een abuse of notation achter uitdrukkingen van de vorm \( \frac{\partial}{\partial x^{i_{\mu}}} \) schuilgaat de afbeelding van \( \mathbb{F} \cup V^*_p \cup V^{***}_p \cup V^{*****}_p \cup \cdots \, \) naar \( \mathbb{R} \) die argumenten uit \( \mathbb{F} \) met \( \frac{\partial}{\partial x^{i_{\mu}}} \) evalueert; die argumenten uit \( V^*_p \) evalueert met de co-covector van \( \frac{\partial}{\partial x^{i_{\mu}}} \); die argumenten uit \( V^{***}_p \) evalueert met de co-co-co-covector van \( \frac{\partial}{\partial x^{i_{\mu}}} \), etc.


Beschouw verder als het formele object dat in de zin van een abuse of notation achter uitdrukkingen van de vorm \( d x^{j_{\mu}} \) schuilgaat de afbeelding van \( V_p \cup V^{**}_p \cup V^{****}_p \cup \cdots \, \) naar \( \mathbb{R} \) die argumenten uit \( V_p \) evalueert met de covector \( d x^{j_{\mu}} \); die argumenten uit \( V^{**}_p \) evalueert met de co-covector van de covector \( d x^{j_{\mu}} \), etc.


Zou dit de identificatie van \( V_p \) met \(V^{**}_p \) althans voor zover het tensorberekeningen betreft overbodig maken?
Gebruikersavatar
Professor Puntje
Artikelen: 0
Berichten: 7.561
Lid geworden op: vr 23 okt 2015, 23:02

Re: Allerlei tensor-vragen

Aanvulling: niet alleen de identificatie van \( V_p \) met \( V^{**}_p \), maar ook die van \( V^*_p \) met \( V^{***}_p \). En wat daar verderop in de hiërarchie uit volgt.
Gebruikersavatar
Professor Puntje
Artikelen: 0
Berichten: 7.561
Lid geworden op: vr 23 okt 2015, 23:02

Re: Allerlei tensor-vragen

Stel dat men in een tensorberekening met een zekere vector T te doen heeft en men ook graag over een vector S zou beschikken zodanig dat de co-covector van S T is. Mag men dan het bestaan van een dergelijk vector S zonder meer aannemen?
Gebruikersavatar
wnvl1
Artikelen: 0
Berichten: 2.947
Lid geworden op: di 20 jul 2021, 21:43

Re: Allerlei tensor-vragen

De covector geassocieerd met \(T^{\alpha}\) is \(S_{\alpha}=g_{\alpha\beta}T^{\beta}\).
Dat lijkt mij altijd te berekenen als je een goede metriek hebt.

Terug naar “(Lineaire) Algebra en Meetkunde”