Propagação de erros

Em estatística, propagação de incerteza ou propagação de erro (ambas diferem na forma de apresentar seus valores) é uma forma de verificar a confiabilidade dos dados de uma certa amostra ou medida, quando esta é submetida a diferentes operações matemáticas. Ela define como as incertezas ou erros das variáveis estão relacionadas e fornece a melhor estimativa para aquele conjunto de dados.

Incerteza é uma quantidade (dimensional ou adimensional) que expressa a confiabilidade de um conjunto de dados, dada a sua dispersão, independentemente do valor verdadeiro. A entidade máxima para os padrões de medidas de incerteza é o Escritório Internacional de Pesos e Medidas (BIPM).

Erro é a diferença entre o valor de uma certa medida e o seu valor verdadeiro.

Motivação

Na realização de um experimento científico, ou qualquer outro experimento que haja coleta de dados, é raro o caso em que a análise do resultado dependa somente dos dados brutos encontrados. Os dados normalmente são coletados a fim de comparar os resultados com outros experimentos, ou para testar uma teoria, ou mesmo obter informações mais aprofundadas sobre determinado fenômeno. Nessas análises os dados são usados para se comparar pelo menos duas grandezas (considerando casos em que se pretende estudar algo), mas nem sempre é possível medir essas grandezas diretamente, sendo necessária a medida de outras grandezas que definam as que se quer comparar, ou tirando uma amostra de um conjunto de dados. Um exemplo disso é a velocidade. Não há como medir a velocidade propriamente dita, mas podemos medir distâncias e tempos, obtendo assim a velocidade média.

Como qualquer medida experimental, essa contém erros, que vêm da exatidão ou precisão do instrumento, ou até mesmo da flutuação estatística dos dados (dada pelo desvio padrão) – esta última é o caso de um decaimento radiativo. Quando se faz medições a fim de chegar indiretamente a outras grandezas, essas incertezas precisam ser levadas em conta, e há uma forma de se calcular a incerteza final da grandeza encontrada indiretamente.

Fórmulas de propagação de incertezas

Uma função f de uma ou mais variáveis envolvidas, as quais possuem uma incerteza associada, e nesta função são submetidas a operações matemáticas, existem diferentes formas de se determinar a propagação de incerteza e estas irão depender do tipo da função f a qual estamos lidando e do quanto deseja aproximá-la em nossos modelos.

Combinações lineares

Neste caso, analisa-se um modelo geral para uma função linear a qual pode possuir variáveis com ou sem correlação. Neste modelo, não são aplicadas aproximações. Vamos supor f k ( x 1 , x 2 , , x n ) {\displaystyle f_{k}(x_{1},x_{2},\dots ,x_{n})} ser um grupo de m funções as quais são combinações lineares de n {\displaystyle n} variáveis x 1 , x 2 , , x n {\displaystyle x_{1},x_{2},\dots ,x_{n}} com a combinação de coeficientes dada por A k 1 , A k 2 , , A k n , ( k = 1 m ) {\displaystyle A_{k1},A_{k2},\dots ,A_{kn},(k=1\dots m)} . Então:

f k = i n A k i x i {\displaystyle f_{k}=\sum _{i}^{n}A_{ki}x_{i}} ou f = A x {\displaystyle \mathbf {f} =\mathbf {Ax} \,}

e seja a matriz de variância-covariância em x denotada por : Σ x {\displaystyle \Sigma ^{x}\,} .

Σ x = ( σ 1 2 cov 12 cov 13 cov 12 σ 2 2 cov 23 cov 13 cov 23 σ 3 2 ) {\displaystyle \Sigma ^{x}={\begin{pmatrix}\sigma _{1}^{2}&{\text{cov}}_{12}&{\text{cov}}_{13}&\cdots \\{\text{cov}}_{12}&\sigma _{2}^{2}&{\text{cov}}_{23}&\cdots \\{\text{cov}}_{13}&{\text{cov}}_{23}&\sigma _{3}^{2}&\cdots \\\vdots &\vdots &\vdots &\ddots \\\end{pmatrix}}}

Assim, a variância-covariância da matriz Σ f {\displaystyle \Sigma ^{f}\,} de f é dada por

Σ i j f = k n n A i k Σ k x A j {\displaystyle \Sigma _{ij}^{f}=\sum _{k}^{n}\sum _{\ell }^{n}A_{ik}\Sigma _{k\ell }^{x}A_{j\ell }} .
. Σ f = A Σ x A {\displaystyle .\Sigma ^{f}=\mathbf {A} \Sigma ^{x}\mathbf {A} ^{\top }} .

Esta é a expressão mais geral para a propagação de incerteza. Quando as incertezas entre as variáveis não são correlacionadas então a expressão se reduz à

Σ i j f = k n A i k ( σ k 2 ) x A j k . {\displaystyle \Sigma _{ij}^{f}=\sum _{k}^{n}A_{ik}\left(\sigma _{k}^{2}\right)^{x}A_{jk}.}

Em geral a expressão para uma simples função,f, são simplificadas para:

f = i n a i x i : f = a x {\displaystyle f=\sum _{i}^{n}a_{i}x_{i}:f=\mathbf {ax} \,}
σ f 2 = i n j n a i Σ i j x a j = a Σ x a t {\displaystyle \sigma _{f}^{2}=\sum _{i}^{n}\sum _{j}^{n}a_{i}\Sigma _{ij}^{x}a_{j}=\mathbf {a\Sigma ^{x}a^{t}} }

Cada termo , M i j {\displaystyle M_{ij}} pode ser expresso pela correlação dos coeficientes(Coeficiente de correlação de Pearson) ρ i j {\displaystyle \rho _{ij}\,} por M i j = ρ i j σ i σ j {\displaystyle M_{ij}=\rho _{ij}\sigma _{i}\sigma _{j}\,} , assim a expressão alternativa para a variância de f é:

σ f 2 = i n a i 2 σ i 2 + i n j ( j i ) n a i a j ρ i j σ i σ j . {\displaystyle \sigma _{f}^{2}=\sum _{i}^{n}a_{i}^{2}\sigma _{i}^{2}+\sum _{i}^{n}\sum _{j(j\neq i)}^{n}a_{i}a_{j}\rho _{ij}\sigma _{i}\sigma _{j}.}

No caso em que as variáveis x não são correlacionadas:

σ f 2 = i n a i 2 σ i 2 . {\displaystyle \sigma _{f}^{2}=\sum _{i}^{n}a_{i}^{2}\sigma _{i}^{2}.}

Combinações Não-Lineares

Aqui, os modelos descritos implicam em aproximações para gerar uma forma mais simplificada, sendo estas com uma precisão que vai depender de tais aproximações. Quando f é um grupo de combinações não-lineares da variável x, por exemplo quando f(a,b) = ab ,ela pode ser linearizada por uma aproximação de primeira ordem pela expansão da Série de Taylor .[1] Assim a expansão para uma função qualquer:


f k f k 0 + i n f k x i x i {\displaystyle f_{k}\approx f_{k}^{0}+\sum _{i}^{n}{\frac {\partial f_{k}}{\partial {x_{i}}}}x_{i}}

em que f k / x i {\displaystyle \partial f_{k}/\partial x_{i}} denota a derivada parcial de fk com respeito a i-n variável. Ou na notação matricial

f f 0 + J x {\displaystyle \mathrm {f} \approx \mathrm {f} ^{0}+J\mathrm {x} \,}

no qual J é a matriz jacobiana. Desde que f0k seja uma constante, isso não contribuirá para o erro em f. Então, a propagação de incertezas segue o caso linear acima, mas substituindo os coeficientes lineares Aik e Ajk pelas derivadas parciais, f k x i {\displaystyle {\frac {\partial f_{k}}{\partial x_{i}}}} e f k x j {\displaystyle {\frac {\partial f_{k}}{\partial x_{j}}}} . Na notação matricial: [2]

cov ( f ) = J cov ( x ) J {\displaystyle \operatorname {cov} (\mathrm {f} )=J\operatorname {cov} (\mathrm {x} )J^{\top }} .

Este é o Jacobiano da função e é usada para transformar linhas e colunas da covariância dos argumentos.

No entanto, a formula mais comum entre os engenheiros e cientistas experimentais, que calculam a propagação de incertezas para variáveis independentes. Segundo um padrão estipulado pelo Escritório Internacional de Pesos e Medidas (BIPM)

σ f = ( f x ) 2 σ x 2 + ( f y ) 2 σ y 2 + ( f z ) 2 σ z 2 + . . . {\displaystyle \sigma _{f}={\sqrt {\left({\frac {\partial f}{\partial {x}}}\right)^{2}\sigma _{x}^{2}+\left({\frac {\partial f}{\partial {y}}}\right)^{2}\sigma _{y}^{2}+\left({\frac {\partial f}{\partial {z}}}\right)^{2}\sigma _{z}^{2}+...}}}

em que σ f {\displaystyle \sigma _{f}} representa o desvio padrão da função f {\displaystyle f} , σ x {\displaystyle \sigma _{x}} representa o desvio padrão de x {\displaystyle x} , σ y {\displaystyle \sigma _{y}} representa o desvio padrão de y {\displaystyle y} , e assim por diante.

É importante notar que esta formula é baseada nas características lineares dos gradientes de f {\displaystyle f} e então esta é uma boa estimativa para o desvio padrão de f {\displaystyle f} ao longo de s x , s y , s z , . . . {\displaystyle s_{x},s_{y},s_{z},...} são pequenos comparados com as derivadas parciais.[3]

Exemplo

Qualquer função não linear, f(a,b), de duas variáveis, a and b, podem ser expandidas como

f f 0 + f a a + f b b {\displaystyle f\approx f^{0}+{\frac {\partial f}{\partial a}}a+{\frac {\partial f}{\partial b}}b}

Então:

σ f 2 | f a | 2 σ a 2 + | f b | 2 σ b 2 + 2 f a f b cov a b . {\displaystyle \sigma _{f}^{2}\approx \left|{\frac {\partial f}{\partial a}}\right|^{2}\sigma _{a}^{2}+\left|{\frac {\partial f}{\partial b}}\right|^{2}\sigma _{b}^{2}+2{\frac {\partial f}{\partial a}}{\frac {\partial f}{\partial b}}{\text{cov}}_{ab}.}

Para o particular caso que f = a b {\displaystyle f=ab\!} , f a = b {\displaystyle {\frac {\partial f}{\partial a}}=b} , f b = a {\displaystyle {\frac {\partial f}{\partial b}}=a} . Então

σ f 2 b 2 σ a 2 + a 2 σ b 2 + 2 a b cov a b {\displaystyle \sigma _{f}^{2}\approx b^{2}\sigma _{a}^{2}+a^{2}\sigma _{b}^{2}+2ab\,{\text{cov}}_{ab}}

ou

( σ f f ) 2 ( σ a a ) 2 + ( σ b b ) 2 + 2 ( σ a a ) ( σ b b ) ρ a b . {\displaystyle \left({\frac {\sigma _{f}}{f}}\right)^{2}\approx \left({\frac {\sigma _{a}}{a}}\right)^{2}+\left({\frac {\sigma _{b}}{b}}\right)^{2}+2\left({\frac {\sigma _{a}}{a}}\right)\left({\frac {\sigma _{b}}{b}}\right)\rho _{ab}.}

Avisos e Ressalvas

Estimativas de erro para funções não-lineares são baseadas em uma aproximação que depende do truncamento
da série de Taylor, a extensão desta depende da natureza da função. Por exemplo, a propensão do erro calculado
para log x aumenta enquanto x aumenta, e esta é uma boa aproximação para 1+x desde que  x seja pequeno.

No caso especial do inverso de 1 / B {\displaystyle 1/B} sendo que B = N ( 0 , 1 ) {\displaystyle B=N(0,1)} , a distribuição é uma distribuição de Cauchy e não há uma variância definida. Para tanto a taxa de distribuição, pode ser definida pelas probabilidades dos intervalos os quais são definidos pela simulação de Monte Carlo, ou, em alguns casos, usando a transformação de Geary-Hinkley .[4]

Para funções “muito não-lineares’’, existem cinco categorias de aproximações probabilísticas as quais se aplica a propagação de incertezas .[5]

Exemplo de fórmulas

Esta tabela mostra as variâncias de funções simples para variáveis reais A , B {\displaystyle A,B\!} , com seus desvios padrões σ A , σ B {\displaystyle \sigma _{A},\sigma _{B}\,} , coeficiente de correlação ρ A B {\displaystyle \rho _{AB}\,} e constantes reais a , b {\displaystyle a,b\,} .

Função Variância
f = a A {\displaystyle f=aA\,} σ f 2 = a 2 σ A 2 {\displaystyle \sigma _{f}^{2}=a^{2}\sigma _{A}^{2}}
f = a A ± b B {\displaystyle f=aA\pm bB\,} σ f 2 = a 2 σ A 2 + b 2 σ B 2 ± 2 a b cov A B {\displaystyle \sigma _{f}^{2}=a^{2}\sigma _{A}^{2}+b^{2}\sigma _{B}^{2}\pm 2ab\,{\text{cov}}_{AB}}
f = A B {\displaystyle f=AB\,} ( σ f f ) 2 ( σ A A ) 2 + ( σ B B ) 2 + 2 σ A σ B A B ρ A B {\displaystyle \left({\frac {\sigma _{f}}{f}}\right)^{2}\approx \left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}+2{\frac {\sigma _{A}\sigma _{B}}{AB}}\rho _{AB}}
f = A B {\displaystyle f={\frac {A}{B}}\,} ( σ f f ) 2 ( σ A A ) 2 + ( σ B B ) 2 2 σ A σ B A B ρ A B {\displaystyle \left({\frac {\sigma _{f}}{f}}\right)^{2}\approx \left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}-2{\frac {\sigma _{A}\sigma _{B}}{AB}}\rho _{AB}} [6]
f = a A ± b {\displaystyle f=aA^{\pm b}\,} σ f f b σ A A {\displaystyle {\frac {\sigma _{f}}{f}}\approx b{\frac {\sigma _{A}}{A}}} [7]
f = a ln ( ± b A ) {\displaystyle f=a\ln(\pm bA)\,} σ f a σ A A {\displaystyle \sigma _{f}\approx a{\frac {\sigma _{A}}{A}}} [8]
f = a log ( A ) {\displaystyle f=a\log(A)\,} σ f a σ A A ln ( 10 ) {\displaystyle \sigma _{f}\approx a{\frac {\sigma _{A}}{A\ln(10)}}} [8]
f = a e ± b A {\displaystyle f=ae^{\pm bA}\,} σ f f b σ A {\displaystyle {\frac {\sigma _{f}}{f}}\approx b\sigma _{A}} [9]
f = a ± b A {\displaystyle f=a^{\pm bA}\,} σ f f b ln ( a ) σ A {\displaystyle {\frac {\sigma _{f}}{f}}\approx b\ln(a)\sigma _{A}}

Para variáveis não correlacionadas a covariância dos termos é zero. Expressões mais complicadas podem ser obtidas a parir de tais simples funções. Por exemplo, repetindo a multiplicação e assumindo que não há correlação entre os dados

f = A B ( C ) ; ( σ f f ) 2 ( σ A A ) 2 + ( σ B B ) 2 + ( σ C C ) 2 . {\displaystyle f=AB(C);\left({\frac {\sigma _{f}}{f}}\right)^{2}\approx \left({\frac {\sigma _{A}}{A}}\right)^{2}+\left({\frac {\sigma _{B}}{B}}\right)^{2}+\left({\frac {\sigma _{C}}{C}}\right)^{2}.}

Para o caso f = A B {\displaystyle f=AB} obtemos a expressão de Goodman para calcular sua exata variância a calculate V ( X Y ) = E ( X ) 2 V ( Y ) + E ( Y ) 2 V ( X ) + E ( ( X E ( X ) ) 2 ( Y E ( Y ) ) 2 ) 2 {\displaystyle V(XY)=E(X)^{2}V(Y)+E(Y)^{2}V(X)+E((X-E(X))^{2}(Y-E(Y))^{2})^{2}} E então nós teríamos σ f 2 = A 2 σ B 2 + B 2 σ A 2 + σ A 2 σ B 2 {\displaystyle \sigma _{f}^{2}=A^{2}\sigma _{B}^{2}+B^{2}\sigma _{A}^{2}+\sigma _{A}^{2}\sigma _{B}^{2}}

Derivadas parciais

Ver artigo principal: Derivada parcial

Dado X = f ( A , B , C , ) {\displaystyle X=f(A,B,C,\dots )}

Erro Absoluto Variância
| Δ X | = | f A | | Δ A | + | f B | | Δ B | + | f C | | Δ C | + {\displaystyle \left|\Delta X\right|=\left|{\frac {\partial f}{\partial A}}\right|\cdot \left|\Delta A\right|+\left|{\frac {\partial f}{\partial B}}\right|\cdot \left|\Delta B\right|+\left|{\frac {\partial f}{\partial C}}\right|\cdot \left|\Delta C\right|+\cdots } σ X 2 = ( f A σ A ) 2 + ( f B σ B ) 2 + ( f C σ C ) 2 + {\displaystyle \sigma _{X}^{2}=\left({\frac {\partial f}{\partial A}}\sigma _{A}\right)^{2}+\left({\frac {\partial f}{\partial B}}\sigma _{B}\right)^{2}+\left({\frac {\partial f}{\partial C}}\sigma _{C}\right)^{2}+\cdots } [10]

Inverso da função tangente

Nós podemos calcular a propagação de incertezas para o inverso da função tangente como um exemplo do uso das derivadas parcias para propagar a incerteza. Definindo

f ( x ) = arctan ( x ) , {\displaystyle f(x)=\arctan(x),}

onde σ x {\displaystyle \sigma _{x}} é a incerteza absoluta nas nossas medidas de x. Assim, a derivada parcial de f ( x ) {\displaystyle f(x)} com respeito a x {\displaystyle x} é

f x = 1 1 + x 2 . {\displaystyle {\frac {\partial f}{\partial x}}={\frac {1}{1+x^{2}}}.}

Então, nossa propagação de incertezas fica

σ f σ x 1 + x 2 , {\displaystyle \sigma _{f}\approx {\frac {\sigma _{x}}{1+x^{2}}},}

no qual σ f {\displaystyle \sigma _{f}} é incerteza absoluta propagada.

Valor médio de múltiplos e independentes dados

Suponhamos que gravamos N {\displaystyle N} diferentes dados, onde cada um deles é representado por x 1 , x 2 , , x n {\displaystyle x_{1},x_{2},\dots ,x_{n}} , onde a soma dos dados é dado por Σ {\displaystyle \Sigma }

Σ = x 1 , x 2 , , x n {\displaystyle \Sigma =x_{1},x_{2},\dots ,x_{n}}

E a média destes dados é dada por

x ¯ = Σ N {\displaystyle {\bar {x}}={\frac {\Sigma }{N}}}

Neste caso, como se trata de um conjunto de dados independentes, aplicando a fórmula de propagação de incertezas

σ x ¯ 2 = x ¯ N {\displaystyle \sigma _{\bar {x}}^{2}={\frac {\bar {x}}{N}}}


Combinação de medidas independentes com valores de incertezas diferentes

Neste caso, queremos relacionar como N {\displaystyle N} diferentes incertezas de uma mesma quantidade se relacionam. Para isso é atribuído um fator de peso para cada incerteza onde a função resultante é minimizada. Busca-se o "melhor valor". Por fim, temos:

1 σ < x > 2 = i = 1 N 1 σ x i 2 {\displaystyle {\frac {1}{\sigma _{<x>}^{2}}}=\sum _{i=1}^{\mathbb {N} }{\frac {1}{\sigma _{xi}^{2}}}}

Exemplos com Aplicações

Combinação linear - Soma de contagens em medidas de fontes radiativas

Para uma fonte radiativa o número de contagens da mesma foi 1071 enquanto que foi medido um fundo de 521, qual é o número de contagens pertencente apenas a fonte? Este é um exemplo de combinação linear. Para uma fonte radiativa, sabe-se que seu desvio padrão é N {\displaystyle {\sqrt {N}}} .

Como a = x y {\displaystyle a=x-y}

a {\displaystyle a} é o número de contagens da fonte
x {\displaystyle x} é o número total de contagens
y {\displaystyle y} é o numero de contagens do fundo

Então:

a = 550 {\displaystyle a=550}
σ a 2 = σ x 2 + σ y 2 {\displaystyle \sigma _{a}^{2}=\sigma _{x}^{2}+\sigma _{y}^{2}}
σ a 2 = 1071 + 521 {\displaystyle \sigma _{a}^{2}=1071+521}
σ a = 39 , 9 {\displaystyle \sigma _{a}=39,9}

Logo, o numero de contagens que pertence apenas a fonte é 550 ± 39 , 9 {\displaystyle 550\pm 39,9}

Combinações Não-Lineares - Trigonometria

A área de um triângulo é igual a metade do produto da base vezes a altura

A = b h 2 {\displaystyle A={\frac {bh}{2}}}

Se a base e a altura tem valores de b = 5 c m {\displaystyle b=5cm} e h = 10 c m {\displaystyle h=10cm} , e a incerteza dada por σ b = 1 m m {\displaystyle \sigma _{b}=1mm} e σ h = 3 m m {\displaystyle \sigma _{h}=3mm} , a área é A = 25 c m 2 {\displaystyle A=25cm^{2}} e a incerteza da área é dada por:

σ a 2 σ b 2 25 + σ h 2 100 = 81 , 25 m m 2 {\displaystyle \sigma _{a}^{2}\approx {\frac {\sigma _{b}^{2}}{25}}+{\frac {\sigma _{h}^{2}}{100}}=81,25mm^{2}}
σ a 9 m m {\displaystyle \sigma _{a}\approx 9mm}

Combinação de medidas independentes com valores de incerteza diferentes - Medida com diferentes equipamentos

Foi medido o comprimento de uma mesa utilizando dois equipamentos de medidas diferentes, onde para um a medida da mesa foi de l = 80 c m ± 1 c m {\displaystyle l=80cm\pm 1cm} enquanto que para o outro a medida foi l = 81 c m ± 3 c m {\displaystyle l=81cm\pm 3cm} . Qual é incerteza da melhor estimativa para o valor do comprimento da régua?

Com relação ao desvio

1 σ < x > 2 = i = 1 N 1 σ x i 2 {\displaystyle {\frac {1}{\sigma _{<x>}^{2}}}=\sum _{i=1}^{\mathbb {N} }{\frac {1}{\sigma _{xi}^{2}}}}
σ < x > = 0 , 949 {\displaystyle \sigma _{<x>}=0,949}

Logo a incerteza do melhor valor para o comprimento da régua estimado pelos 2 equipamentos é 9 , 49 m m {\displaystyle 9,49mm}

Medidas da resistência

Uma aplicação experimental é o caso no qual medidas da corrente elétrica ,I, e tensão elétrica V, em um resistor com objetivo de determinar a resistência R, usando a lei de Ohm, R = V / I . {\displaystyle R=V/I.}

Dada a medida das variáveis com incerteza I±σI e V±σV, a incerteza associada a medida da resistência, σR é

σ R σ V 2 ( 1 I ) 2 + σ I 2 ( V I 2 ) 2 . {\displaystyle \sigma _{R}\approx {\sqrt {\sigma _{V}^{2}\left({\frac {1}{I}}\right)^{2}+\sigma _{I}^{2}\left({\frac {-V}{I^{2}}}\right)^{2}}}.}

Notas

  1. Goodman, Leo (1960). «On the Exact Variance of Products». Journal of the American Statistical Association. 55 (292): 708–713. JSTOR 2281592. doi:10.2307/2281592 
  2. Ochoa1,Benjamin; Belongie, Serge "Covariance Propagation for Guided Matching"
  3. Clifford, A. A. (1973). Multivariate error analysis: a handbook of error propagation and calculation in many-parameter systems. [S.l.]: John Wiley & Sons. ISBN 0470160551 [falta página]
  4. Hayya, Jack; Armstrong, Donald; Gressis, Nicolas (1975). «A Note on the Ratio of Two Normally Distributed Variables». Management Science. 21 (11): 1338–1341. JSTOR 2629897. doi:10.1287/mnsc.21.11.1338 
  5. S. H. Lee and W. Chen, A comparative study of uncertainty propagation methods for black-box-type problems, Structural and Multidisciplinary Optimization Volume 37, Number 3 (2009), 239-253, DOI: 10.1007/s00158-008-0234-7
  6. «Strategies for Variance Estimation» (PDF). p. 37. Consultado em 18 de janeiro de 2013 
  7. Fornasini, Paolo (2008), The uncertainty in physical measurements: an introduction to data analysis in the physics laboratory, ISBN 0-387-78649-X, Springer, p. 161 
  8. a b Harris, Daniel C. (2003), Quantitative chemical analysis, ISBN 0-7167-4464-3 6th ed. , Macmillan, p. 56 
  9. «Error Propagation tutorial» (PDF). Foothill College. 9 de outubro de 2009. Consultado em 1 de março de 2012 
  10. Lindberg, Vern (5 de outubro de 2009). «Uncertainties and Error Propagation». Uncertainties, Graphing, and the Vernier Caliper (em eng). Rochester Institute of Technology. 1 páginas. Consultado em 20 de abril de 2007. Arquivado do original em 12 de maio de 2008. The guiding principle in all cases is to consider the most pessimistic situation.  !CS1 manut: Língua não reconhecida (link)

Bibliografia

  • Bevington, Philip R.; Robinson, D. Keith (2002), Data Reduction and Error Analysis for the Physical Sciences, ISBN 0-07-119926-8 3rd ed. , McGraw-Hill 
  • Meyer, Stuart L. (1975), Data Analysis for Scientists and Engineers, ISBN 0-471-59995-6, Wiley 
  • W. Feller, An Introduction to probability Theory an its Aplications, 2nd ed.,Eiley,New York,1957.
  • Knoll,Glenn F., Radiation Detection and Measurement,3nd
  • Wallace, M.J,Experimental Measurements:Precision,Error and Truth,1nd,wesley,London,1967
  • (en) (fr) M. Rouaud, Probability, Statistics and Estimation Propagation of Uncertainties in Experimental Measurement, 252p, 2013.

Ligações externas

  • A detailed discussion of measurements and the propagation of uncertainty explaining the benefits of using error propagation formulas and Monte Carlo simulations instead of simple significance arithmetic
  • Uncertainties and Error Propagation, Vern Lindberg's Guide to Uncertainties and Error Propagation.
  • GUM, Guide to the Expression of Uncertainty in Measurement
  • EPFL An Introduction to Error Propagation, Derivation, Meaning and Examples of Cy = Fx Cx Fx'
  • Uncertainties package, a program/library for transparently performing calculations with uncertainties (and error correlations).
  • Joint Committee for Guides in Metrology JCGM 102: Evaluation of Measurement Data - Supplement 2 to the "Guide to the Expression of Uncertainty in Measurement" - Extension to Any Number of Output Quantities. JCGM, 2011
  • v
  • d
  • e
Estatística
Estatística descritiva
Gráficos estatísticos
Inferência estatística
Estatística não-paramétrica
Análise de sobrevivência
  • Função de sobrevivência
  • Kaplan-Meier
  • Teste log-rank
  • Taxa de falha
  • Proportional hazards models
Amostragem
Distribuição de probabilidade
Correlação
Regressão
Análise multivariada
Séries temporais
  • Modelos para séries temporais
  • Tendência e sazonalidade
  • Modelos de suavização exponencial
  • ARIMA
  • Modelos sazonais
  • Portal de probabilidade e estatística