ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Estatística Descritiva - Apontamentos.


Enviado por   •  26 de Febrero de 2017  •  Apuntes  •  1.287 Palabras (6 Páginas)  •  177 Visitas

Página 1 de 6
  1. Texto Estatística Descritiva-revisões.pdf
  2. SPSS - iniciação.pdf (passos desde a pg.1 à 8)
  • Medidas de Tendência Central (pg.2)
  • Medidas de Dispersão (pg.3)
  • Medidas de Assimetria e Achatamento (pg.4)
  • Medidas de Associação (pg.5)

[pic 1]

  • Inferência Estatística (pg.9): Depois de efetuado o estudo descritivo de uma amostra o passo seguinte consiste em inferir sobre os valores dos parâmetros da população teórica de onde foram obtidas as amostras e/ou validar hipóteses acerca desses parâmetros.

a)Teoria da estimação

b)Teoria da decisão

-> Funções de densidade de probabilidade/função de probabilidade utilizadas mais frequentemente são a distribuição Normal, a distribuição do Qui-quadrado, a distribuição t-Student, a distribuição F-Snedcor e a distribuição Binomial.

  • Probabilidade de significância e erros estatísticos (pg.12): Regra geral, se p value ≤α deve rejeitar-se H0.

  1. Comparação Contagens e Proporções.pdf
  • Teste Binomial (pg.1)
  • Teste do Qui-quadrado (χ2) (pg.4)
  • Caso não for possível aplicar com rigor o teste Qui-Quadrado (ver explicação no pdf) faz-se a simulação por Monte Carlo (pg.7)
  • Teste de Fisher (pg.9)

  • Testes para proporções em amostras emparelhadas: estes testes são úteis quando se pretende avaliar a evolução da proporção de uma determinada caraterística na população em diversas situações espaciais ou temporais (antes e depois).
  • Teste de McNemar para duas populações (pg.12)
  • Teste Q de Cochran para mais de duas populações (pg. 14)
  1. Análise da Variância - ANOVA.pdf
  • Testes paramétricos para comparar populações a partir de amostras independentes (pg.1): A comparação de parâmetros populacionais (média, variância, etc.) a partir de amostras aleatórias é uma das necessidades mais frequentes em análise estatística. Existem duas metodologias que podem ser seguidas: testes paramétricos, que exigem o conhecimento da distribuição amostral (a mais utilizada é a Normal) e os testes não paramétricos que não pressupõem o conhecimento dessa distribuição (ver condições de aplicação)
  • Teste de Kolmogorov-Smirnov (K-S) para testar se a distribuição amostral é Normal (pg.1)
  • Teste de Shapiro-Wilk para testar se a distribuição amostral é Normal (pg.2)
  • Teste de Lavene para testar a homogeneidade de variâncias (pg.2)
  • Teste t-Student para testar hipóteses sobre uma média populacional estimada a partir de uma amostra aleatória (pg.6)
  • Teste t-Student para comparação de duas médias populacionais, a partir de duas amostras aleatórias independentes (pg.8)
  • Comparação de médias para mais de duas populações: a análise da variância (ANOVA) (pg.11): pode ser utilizada para comparar médias de mais de duas populações de onde foram extraídas amostras independentes, desde que a variável em estudo tenha distribuição normal e se as variâncias populacionais forem homogéneas.
  • ANOVA a um fator (one-way) (pg.12)
  • Comparação múltipla de médias: o teste de Tukey, de Fisher-LSD, de Scheffé e de Bonferroni (pg.14) - Quando na ANOVA se rejeita H0, podemos concluir que existe pelo menos uma média populacional que é significativamente diferente das restantes mas não se identificam os pares de médias em que isso acontece. Esta verificação deve realizar-se depois (testes Post-Hoc”) e as hipóteses serão para todos os pares de médias possíveis: ( , 1,2,..., ) 0 1 H vs H i j k μi = μ j μi  μ j = Para se poder comparar k médias, duas a duas usa-se o procedimento “Comparação múltipla de médias”. Existem testes post-hoc tais como Tukey, Bonferroni, Scheffé, Newman-Keuls, LSD, etc, sendo considerado o teste de Tukey, para amostras de grande dimensão, o mais robusto a desvios à normalidade e homogeneidade das variâncias.
  • A ANOVA fatorial (Pg.17) - Quando a variável dependente em estudo é influenciada por mais de uma variável independente ou fator.
  • Comparações múltiplas em designs fatoriais (pg.20) Como vimos anteriormente, a rejeição de H0 pela ANOVA apenas indica que existe pelo menos um dos grupos definidos pelos níveis dos fatores onde a média é significativamente diferente de pelo menos uma das médias dos restantes grupos. Assim sempre que se rejeita H0 pode proceder-se à comparação múltipla de médias com os testes post-hoc.
  1. ANOVA-considerações adicionais.pdf
  • Análise da variância (objetivos) (pg.1)
  • Análise de variância com um fator e efeitos fixos (pg.1)
  • Comparações múltiplas e Definição conjunta dos intervalos de confiança pelo método de Tukey (pg. 4/5) – AMOSTRAS EQUILIBRADAS E AMOSTRAS POUCO DESEQUILIBRADAS
  • Método de Bonferroni (pg.5)
  • Teste de Dunnett (pg.5)
  • Análise de variância com um fator e efeitos aleatórios (pg.5)
  • ANOVA não paramétrica: Teste de Kruskal-Wallis (pg.7)
  1. Testes Não Paramétricos-amostras independentes.pdf
  • Testes não paramétricos para comparar populações a partir de amostras independentes (pg.1)
  • O teste de Wilcoxon para uma mediana populacional (pg.1)
  • O teste de Wilcoxon-Mann-Whitney (pg.4) – Ver passos SPSS
  1. Noções Fundamentais de Estatística.pdf
  • REVISÕES DE ESTATÍSTICA – PARA DÚVIDAS PONTUAIS
  1. Análise Multivariada – MANOVA.pdf (VER DEFINIÇÃO/APLICAÇÃO)
  • MANOVA one-way ou a um fator (pg.2)
  • MANOVA two-way ou a dois fatores e validação dos pressupostos (pg.3)
  • Considerações adicionais MANOVA e aplicação no SPSS (pg.4)
  1. ANOVA não paramétrica.pdf = aos testes não paramétricos (texto 6)
  1. Tipo de testes de hipóteses (ver no pdf a sua aplicação em spss)

[pic 2]

  1. Análise de Clusters.pdf
  • é uma técnica exploratória de análise multivariada que permite agrupar sujeitos ou variáveis em grupos homogéneos relativamente a uma ou mais caraterísticas comuns. Cada observação pertencente a um determinado cluster é similar a todas as outras pertencentes a esse cluster e é diferente das observações pertencentes aos outros clusters.
  • Medidas de semelhança e dissemelhança (pg.1/4): A identificação de agrupamentos naturais de sujeitos ou variáveis exige que a semelhança entre estes possa ser “medida” de uma forma mais ou menos explícita e o menos subjetiva possível. Para este efeito recorre-se a medidas de semelhança (ou proximidade) e/ou a medidas de dissemelhança (ou distância) entre sujeitos:
  1. Distância Euclidiana: esta medida de dissemelhança métrica mede o comprimento da reta que une duas observações num espaço p-dimensional (Jonhson & Wichern, 2002);
  2. Distância de Minkowski: esta medida de dissemelhança métrica pode considerar-se uma generalização da anterior (Jonhson & Wichern, 2002);
  3. Medida de semelhança do Coseno: esta medida de semelhança métrica mede a proximidade entre dois sujeitos para p-variáveis pelo menos intervalares (Anderberg, 1973);
  4. Coeficiente de Jaccard, de Russel & Rão e medidas de associação binárias: quando os sujeitos de uma amostra multivariada são caraterizados por variáveis nominais, as medidas de distância métrica não são aplicáveis e, nestes casos, torna-se necessário o recurso a medidas de associação apropriadas para tabelas de contingência.
  5. Medidas de Semelhança para variáveis: quando a análise de clusters tem como objetivo o agrupamento de variáveis (e não de sujeitos) as medidas de semelhança apropriadas são os coeficientes de correlação amostrais. No caso de variáveis contínuas o coeficiente de correlação de Pearson (ou, de um modo geral, o seu valor absoluto) é o mais vulgarmente utilizado. Para variáveis ordinais deve utilizar-se o coeficiente de Spearman e finalmente no caso de variáveis nominais deve utilizar-se o coeficiente Phi (estes coeficientes estão descritos já anteriormente).
  • Agrupamento hierárquico de clusters (pg. 5): As técnicas hierárquicas recorrem a passos sucessivos de agregação dos sujeitos considerados individualmente.
  • Análise de clusters hierárquica com variáveis (pg.15)
  • Agrupamento não hierárquico de clusters (pg.17)
  1. Análise Fatorial e Análise de Componentes Principais.pdf
  • (pg.1) A ANÁLISE FACTORIAL (ou Análise de Fatores Comuns) e a ANÁLISE DE COMPONENTES PRINCIPAIS são técnicas estatísticas cujo objetivo é representar ou descrever um número de variáveis iniciais a partir de um menor número de variáveis hipotéticas (os fatores\componentes principais). Isto é, permite identificar novas variáveis (os fatores\componentes principais), em menor número que o conjunto inicial, mas sem perda significativa da informação contida neste conjunto.
  • Teste de esfericidade de Bartlett e o KMO (pg.7)
  • Kaiser-Meyer-Olkin (KMO) (pg.8)
  • Exemplificação SPSS (pg.9)
  • Análise Fatorial e Modelo Fatorial (pg.20)
  • Estimação dos fatores comuns e fatores específicos (extração de fatores) (pg.22)
  • Rotação de fatores (pg.23)
  • Avaliação da Qualidade do modelo Fatorial (pg.25)
  • Aplicação em SPSS (pg.26)
  1. Análise Discriminante.pdf
  • Seleção de variáveis discriminantes (pg.2)
  • Estimação das funções discriminantes (pg.3)
  • Avaliação da contribuição relativa das variáveis originais na função discriminante (pg.7)
  • Significância das funções discriminantes (pg. 9)
  • Classificação por recurso às funções discriminantes (pg.10)
  • Exemplificação

...

Descargar como (para miembros actualizados) txt (9 Kb) pdf (242 Kb) docx (103 Kb)
Leer 5 páginas más »
Disponible sólo en Clubensayos.com