Math-E-Mad-X schreef:
Het probleem is dat er niet echt algemene criteria zijn. Het hangt allemaal af van de context. Dat is nou juist precies de reden dat er zo veel verschillende algoritmes bestaan: de ene is handiger in de ene situatie en de andere is handiger in de andere situatie.
Je stelt bijvoorbeeld de vraag of ik het okay vind om zelf eerst een schatting van het nulpunt in te voeren. Kijk, als ik een functie heb waarvan ik geen flauw idee heb waar het nulpunt zou kunnen liggen dan is zo'n algoritme totaal niet nuttig. De kans is immers groot dat ik een hele slechte benadering zal invullen en het algoritme dus zeer traag zal zijn, of zelfs helemaal geen nulpunt kan vinden.
Maar als ik nou in een andere situatie wel ongeveer weet waar het nulpunt ligt, dan kan zo'n algoritme juist super handig zijn, omdat je het zoekproces versnelt door zelf alvast je eigen benadering in te voeren.
Ik kan dus onmogelijk in het algemeen zeggen of zo'n algoritme geschikt of ongeschikt is.
Ik begrijp het probleem, maar je begrijpt zelf ook dat ik de enquête niet kan en mag aanpassen. Misschien helpt het als je de antwoordmogelijkheden op een andere, bredere manier interpreteert. Je zegt zelf dat algoritmen waarbij je een schatting moet invoeren soms erg handig zijn, soms weer helemaal niet. Dit algoritme zal dus al zeker niet 'uiterst geschikt' zijn, maar ook niet 'uiterst ongeschikt'. Het antwoord ligt er tussenin: 'soms ongeschikt', 'neutraal' of 'soms geschikt'. (Opmerking: boven de vragen wordt vermeld dat 'niet geschikt' eveneens 'onbruikbaar' kan betekenen.)
Je moet je dus eigenlijk voorstellen dat er maar één algoritme met een bepaalde eigenschap bestaat om al je functies op te lossen, en dit moet je vervolgens beoordelen (geschikt of niet?).
317070 schreef:
Ik moet voor mijn onderzoek ook regelmatig eens op zoek naar een nulpunt, maar dat is dan meestal een Nash-evenwicht in een stelsel van functies.
Als het over robotica gaat, zijn de functies vaak niet eens expliciet. Dan optimaliseer je een model (of zelfs de echte robot).
Over het algemeen ben ik blij als ik de nulpunten binnen de 24h krijg. Daarvoor moet ik dan wel een cluster computers laten rekenen.
Om maar te zeggen dat je de "algemene" criteria misschien wat ruimer moet gaan nemen dan je tot nu toe deed? Zo ga je in de vragenlijst uit van een 1-dimensionaal probleem. Misschien is het interessant om ook eens te gaan kijken naar hogere dimensies? In de robotica zijn mijn problemen ongeveer 12 dimensionaal, die Nash-evenwichten gaan tot 100 dimensies. Nu ben ik bezig met een probleem uit deep learning, om gezichten op afbeeldingen te herkennen. Daarvoor ga ik een neuraal netwerk optimaliseren tot de fout nul wordt, wat in essentie het nulpunt zoeken is van een ~100.000 dimensionale functie.
Allereerst klinkt dit allemaal erg boeiend, maar jammer genoeg gaat dat allemaal mijn petje te boven. Mijn wiskundig niveau ligt - voorlopig toch - nog een stuk lager. Misschien dat ik had moeten vermelden dat dit mijn eindwerk secundair is, waardoor eveneens geen 100 blz. verwacht worden (min. 15 om precies te zijn). Ik moest me dus wel beperken tot eendimensionale (expliciete) functies. De criteria verruimen zou uiteraard een stuk interessanter zijn, maar het is simpelweg niet de bedoeling.
Alleszins bedankt voor jullie interesse en eventuele deelname.