In der Statistik ist die Präzision (Genauigkeit) definiert als das Reziproke der Varianz.[1] Aus diesem Grund ist die Präzision, falls man nur eine Zufallsvariable isoliert betrachtet, gegeben durch die Inverse ihrer Varianz. Bei mehrdimensionalen Zufallsvariablen ist die Präzision gegeben durch die Präzisionsmatrix, die als Matrixinverse der Kovarianzmatrix definiert ist.
In bayesschen Modellen ist es oft nützlich (obwohl nicht notwendig) bei der Parametrisierung von Modellen statt der Varianz () die Präzision () zu verwenden.[2] Zum Beispiel bevorzugen Bernardo & Smith die Parametrisierung der mehrdimensionalen Normalverteilung in Bezug auf die Präzisionsmatrix anstelle der Kovarianzmatrix, da sich dann bestimmte Vereinfachungen ergeben.[3] Beispielsweise entspricht die Präzisionsmatrix der A-posteriori-Verteilung wenn sowohl die A-priori-Verteilung als auch die Likelihood-Funktion einer Normalverteilung folgen und die Präzisionsmatrix beider Größen existiert (weil ihre Kovarianzmatrix vollen Rang hat und damit invertierbar ist), einfach der Summe der Präzisionsmatrizen der A-priori-Verteilung und der Likelihood-Funktion.
Einige bestimmte statistische Modelle definieren den Begriff „Präzision“ verschieden von dieser Definition.
Die Verwendung des Begriffs Präzision in diesem Sinne tauchte erstmals im Werk Theoria Motus Corporum Coelestium in Sectionibus Conicis Solem Ambientum. (1809) von Carl Friedrich Gauß auf. Die Definition von Gauß unterscheidet sich von der modernen durch den Faktor . Gauß bezeichnet die Präzision mit und nach ihm ist „das Reziproke von gleich “ (wobei der Standardabweichung entspricht). Er schreibt für die Dichtefunktion einer normalverteilten Zufallsvariablen mit der Präzision :
Später nannten Whittaker & Robinson (1924) in ihrem Werk Calculus of observations diese Größe den Modulus. Dieser Begriff setzte sich jedoch nicht durch.