Estatística Descritiva - Apontamentos.
Enviado por Sofia Alves • 26 de Febrero de 2017 • Apuntes • 1.287 Palabras (6 Páginas) • 177 Visitas
Página 1 de 6
- Texto Estatística Descritiva-revisões.pdf
- SPSS - iniciação.pdf (passos desde a pg.1 à 8)
- Medidas de Tendência Central (pg.2)
- Medidas de Dispersão (pg.3)
- Medidas de Assimetria e Achatamento (pg.4)
- Medidas de Associação (pg.5)
[pic 1]
- Inferência Estatística (pg.9): Depois de efetuado o estudo descritivo de uma amostra o passo seguinte consiste em inferir sobre os valores dos parâmetros da população teórica de onde foram obtidas as amostras e/ou validar hipóteses acerca desses parâmetros.
a)Teoria da estimação
b)Teoria da decisão
-> Funções de densidade de probabilidade/função de probabilidade utilizadas mais frequentemente são a distribuição Normal, a distribuição do Qui-quadrado, a distribuição t-Student, a distribuição F-Snedcor e a distribuição Binomial.
- Probabilidade de significância e erros estatísticos (pg.12): Regra geral, se p value ≤α deve rejeitar-se H0.
- Comparação Contagens e Proporções.pdf
- Teste Binomial (pg.1)
- Teste do Qui-quadrado (χ2) (pg.4)
- Caso não for possível aplicar com rigor o teste Qui-Quadrado (ver explicação no pdf) faz-se a simulação por Monte Carlo (pg.7)
- Teste de Fisher (pg.9)
- Testes para proporções em amostras emparelhadas: estes testes são úteis quando se pretende avaliar a evolução da proporção de uma determinada caraterística na população em diversas situações espaciais ou temporais (antes e depois).
- Teste de McNemar para duas populações (pg.12)
- Teste Q de Cochran para mais de duas populações (pg. 14)
- Análise da Variância - ANOVA.pdf
- Testes paramétricos para comparar populações a partir de amostras independentes (pg.1): A comparação de parâmetros populacionais (média, variância, etc.) a partir de amostras aleatórias é uma das necessidades mais frequentes em análise estatística. Existem duas metodologias que podem ser seguidas: testes paramétricos, que exigem o conhecimento da distribuição amostral (a mais utilizada é a Normal) e os testes não paramétricos que não pressupõem o conhecimento dessa distribuição (ver condições de aplicação)
- Teste de Kolmogorov-Smirnov (K-S) para testar se a distribuição amostral é Normal (pg.1)
- Teste de Shapiro-Wilk para testar se a distribuição amostral é Normal (pg.2)
- Teste de Lavene para testar a homogeneidade de variâncias (pg.2)
- Teste t-Student para testar hipóteses sobre uma média populacional estimada a partir de uma amostra aleatória (pg.6)
- Teste t-Student para comparação de duas médias populacionais, a partir de duas amostras aleatórias independentes (pg.8)
- Comparação de médias para mais de duas populações: a análise da variância (ANOVA) (pg.11): pode ser utilizada para comparar médias de mais de duas populações de onde foram extraídas amostras independentes, desde que a variável em estudo tenha distribuição normal e se as variâncias populacionais forem homogéneas.
- ANOVA a um fator (one-way) (pg.12)
- Comparação múltipla de médias: o teste de Tukey, de Fisher-LSD, de Scheffé e de Bonferroni (pg.14) - Quando na ANOVA se rejeita H0, podemos concluir que existe pelo menos uma média populacional que é significativamente diferente das restantes mas não se identificam os pares de médias em que isso acontece. Esta verificação deve realizar-se depois (testes Post-Hoc”) e as hipóteses serão para todos os pares de médias possíveis: ( , 1,2,..., ) 0 1 H vs H i j k μi = μ j μi ≠ μ j = Para se poder comparar k médias, duas a duas usa-se o procedimento “Comparação múltipla de médias”. Existem testes post-hoc tais como Tukey, Bonferroni, Scheffé, Newman-Keuls, LSD, etc, sendo considerado o teste de Tukey, para amostras de grande dimensão, o mais robusto a desvios à normalidade e homogeneidade das variâncias.
- A ANOVA fatorial (Pg.17) - Quando a variável dependente em estudo é influenciada por mais de uma variável independente ou fator.
- Comparações múltiplas em designs fatoriais (pg.20) Como vimos anteriormente, a rejeição de H0 pela ANOVA apenas indica que existe pelo menos um dos grupos definidos pelos níveis dos fatores onde a média é significativamente diferente de pelo menos uma das médias dos restantes grupos. Assim sempre que se rejeita H0 pode proceder-se à comparação múltipla de médias com os testes post-hoc.
- ANOVA-considerações adicionais.pdf
- Análise da variância (objetivos) (pg.1)
- Análise de variância com um fator e efeitos fixos (pg.1)
- Comparações múltiplas e Definição conjunta dos intervalos de confiança pelo método de Tukey (pg. 4/5) – AMOSTRAS EQUILIBRADAS E AMOSTRAS POUCO DESEQUILIBRADAS
- Método de Bonferroni (pg.5)
- Teste de Dunnett (pg.5)
- Análise de variância com um fator e efeitos aleatórios (pg.5)
- ANOVA não paramétrica: Teste de Kruskal-Wallis (pg.7)
- Testes Não Paramétricos-amostras independentes.pdf
- Testes não paramétricos para comparar populações a partir de amostras independentes (pg.1)
- O teste de Wilcoxon para uma mediana populacional (pg.1)
- O teste de Wilcoxon-Mann-Whitney (pg.4) – Ver passos SPSS
- Noções Fundamentais de Estatística.pdf
- REVISÕES DE ESTATÍSTICA – PARA DÚVIDAS PONTUAIS
- Análise Multivariada – MANOVA.pdf (VER DEFINIÇÃO/APLICAÇÃO)
- MANOVA one-way ou a um fator (pg.2)
- MANOVA two-way ou a dois fatores e validação dos pressupostos (pg.3)
- Considerações adicionais MANOVA e aplicação no SPSS (pg.4)
- ANOVA não paramétrica.pdf = aos testes não paramétricos (texto 6)
- Tipo de testes de hipóteses (ver no pdf a sua aplicação em spss)
[pic 2]
- Análise de Clusters.pdf
- é uma técnica exploratória de análise multivariada que permite agrupar sujeitos ou variáveis em grupos homogéneos relativamente a uma ou mais caraterísticas comuns. Cada observação pertencente a um determinado cluster é similar a todas as outras pertencentes a esse cluster e é diferente das observações pertencentes aos outros clusters.
- Medidas de semelhança e dissemelhança (pg.1/4): A identificação de agrupamentos naturais de sujeitos ou variáveis exige que a semelhança entre estes possa ser “medida” de uma forma mais ou menos explícita e o menos subjetiva possível. Para este efeito recorre-se a medidas de semelhança (ou proximidade) e/ou a medidas de dissemelhança (ou distância) entre sujeitos:
- Distância Euclidiana: esta medida de dissemelhança métrica mede o comprimento da reta que une duas observações num espaço p-dimensional (Jonhson & Wichern, 2002);
- Distância de Minkowski: esta medida de dissemelhança métrica pode considerar-se uma generalização da anterior (Jonhson & Wichern, 2002);
- Medida de semelhança do Coseno: esta medida de semelhança métrica mede a proximidade entre dois sujeitos para p-variáveis pelo menos intervalares (Anderberg, 1973);
- Coeficiente de Jaccard, de Russel & Rão e medidas de associação binárias: quando os sujeitos de uma amostra multivariada são caraterizados por variáveis nominais, as medidas de distância métrica não são aplicáveis e, nestes casos, torna-se necessário o recurso a medidas de associação apropriadas para tabelas de contingência.
- Medidas de Semelhança para variáveis: quando a análise de clusters tem como objetivo o agrupamento de variáveis (e não de sujeitos) as medidas de semelhança apropriadas são os coeficientes de correlação amostrais. No caso de variáveis contínuas o coeficiente de correlação de Pearson (ou, de um modo geral, o seu valor absoluto) é o mais vulgarmente utilizado. Para variáveis ordinais deve utilizar-se o coeficiente de Spearman e finalmente no caso de variáveis nominais deve utilizar-se o coeficiente Phi (estes coeficientes estão descritos já anteriormente).
- Agrupamento hierárquico de clusters (pg. 5): As técnicas hierárquicas recorrem a passos sucessivos de agregação dos sujeitos considerados individualmente.
- Análise de clusters hierárquica com variáveis (pg.15)
- Agrupamento não hierárquico de clusters (pg.17)
- Análise Fatorial e Análise de Componentes Principais.pdf
- (pg.1) A ANÁLISE FACTORIAL (ou Análise de Fatores Comuns) e a ANÁLISE DE COMPONENTES PRINCIPAIS são técnicas estatísticas cujo objetivo é representar ou descrever um número de variáveis iniciais a partir de um menor número de variáveis hipotéticas (os fatores\componentes principais). Isto é, permite identificar novas variáveis (os fatores\componentes principais), em menor número que o conjunto inicial, mas sem perda significativa da informação contida neste conjunto.
- Teste de esfericidade de Bartlett e o KMO (pg.7)
- Kaiser-Meyer-Olkin (KMO) (pg.8)
- Exemplificação SPSS (pg.9)
- Análise Fatorial e Modelo Fatorial (pg.20)
- Estimação dos fatores comuns e fatores específicos (extração de fatores) (pg.22)
- Rotação de fatores (pg.23)
- Avaliação da Qualidade do modelo Fatorial (pg.25)
- Aplicação em SPSS (pg.26)
- Análise Discriminante.pdf
- Seleção de variáveis discriminantes (pg.2)
- Estimação das funções discriminantes (pg.3)
- Avaliação da contribuição relativa das variáveis originais na função discriminante (pg.7)
- Significância das funções discriminantes (pg. 9)
- Classificação por recurso às funções discriminantes (pg.10)
- Exemplificação
...
Disponible sólo en Clubensayos.com