Adatelemzés: bootstrap modellek
Egy X valószínűségi változó eloszlását különféle paraméterekkel jellemezhetjük: várható érték, szórás, ferdeség, stb. Ezeket a paramétereket egy n elemű minta alapján statisztikai függvények segítségével becsüljük. Pl.: a várható értéket a mintaátlaggal becsüljük, az empirikus és a korrigált empirikus szórás a szórás becslései. A becslésektől elvárjuk, hogy (legalább aszimptotikusan) torzítatlanok legyenek, valamint a becslés standard hibája a mintaszám növelésével nullához tartson. Ha kicsi a mintaszámunk, akkor nemcsak, hogy pontatlan lesz a becslésünk, de a pontosság jellemzőit sem tudjuk megbecsülni (pl.: konfidencia-intervallum) a klasszikus statisztika eszközeivel.
Mikor nevezhető kicsinek a mintaszám? Akkor, ha a becslés pontossági jellemzőinek (torzítás, standard hiba, konfidencia-intervallum) az n elemű mintából történő becslésekor indokolatlan a határeloszlásra való áttérés (a "klasszikus" képletek nem alkalmazhatók). A probléma megoldására találták ki az újra mintavételező módzsereket
Bootstrap módszer
Legyen X egy valószínűségi változó,  pedig egy n elemű minta X-re, s(x) pedig X valamely paraméterének becslése. A bootstrap-szimuláció során visszatevéssel egy új, szintén n elemű mintát veszünk:
 pedig egy n elemű minta X-re, s(x) pedig X valamely paraméterének becslése. A bootstrap-szimuláció során visszatevéssel egy új, szintén n elemű mintát veszünk:  . Pl.: n=5-re:
. Pl.: n=5-re:  . Az x*-ra is alkalmazzuk s(x)-et, így s(x*)-ot kapjuk. Az eljárást N-szer megismételjük, így kapjuk s(x)-ek egy sorozatát:
. Az x*-ra is alkalmazzuk s(x)-et, így s(x*)-ot kapjuk. Az eljárást N-szer megismételjük, így kapjuk s(x)-ek egy sorozatát:  . Ha N elég nagy, akkor az s(x) becslés bootstrap-utánzatainak empirikus eloszlása jól modellezi az adott statisztika elméleti eloszlását.
. Ha N elég nagy, akkor az s(x) becslés bootstrap-utánzatainak empirikus eloszlása jól modellezi az adott statisztika elméleti eloszlását.
Jackknife módszer
Ha van egy n elemű mintánk, annak az átlagát  jelöli. Ugyanakkor kiszámolhatjuk az átlagot akkor is, ha a j-edik elemet kivágjuk (erre utal a módszer elnevezése is):
 jelöli. Ugyanakkor kiszámolhatjuk az átlagot akkor is, ha a j-edik elemet kivágjuk (erre utal a módszer elnevezése is):
 
Vegyük észre, hogy ha ismert  is, akkor ki tudjuk számolni xj-t:
 is, akkor ki tudjuk számolni xj-t:  
Tegyük fel, hogy az eloszlás egy  paraméterét akarjuk meghatározni. n pontra ennek a becslése:
 paraméterét akarjuk meghatározni. n pontra ennek a becslése:
 
Az előző ötletet felhasználva  egy részleges becslését kapjuk, ha kivesszük a j-edik elemet:
 egy részleges becslését kapjuk, ha kivesszük a j-edik elemet:
 
Szintén az előző ötlet alapján kiszámolhatjuk a j-edik pszeudoértéket:
 
A fentiek alapján a  jackknife becslése:
 jackknife becslése:
 
A  paraméter varianciáját a pszeudoértékekből becsülhetjük:
 paraméter varianciáját a pszeudoértékekből becsülhetjük:
 
