Início



Estrutura do Relatório

Como desenvolver e apresentar a pesquisa






A ESTRUTURA DO RELATÓRIO


A estrutura geral de um relatório pode variar muito, desde que atenda aos critérios da ABNT. No entanto, na UNIVATES, a estrutura usualmente aceita e recomendada segue o exposto a seguir:





  1. INTRODUÇÃO


Na Introdução, sugere-se que o aluno faça um texto inicial que passe por uma apresentação do tema, desembocando na proposta do problema.


Como diferença básica entre Justificativa e Relevância de Estudo, o primeiro item refere-se principalmente aos motivos que levaram o aluno a fazer o estudo e o segundo à aplicabilidade dos resultados da pesquisa.







Referencial Teórico


Esta é a parte do trabalho em que consolidamos nossos conhecimentos à respeito do assunto pesquisado e, mais do que isso, referenciamos o foco e a linha teórica que utilizaremos na análise do problema de pesquisa.

Como na administração existem muitas linhas teóricas diferenciadas à respeito de uma mesmo problema, é fundamental deixar claro na metodologia, qual a que será utilizada no trabalho em questão.


Onde encontrar as melhores referências?

A preferência sempre é por livros de autores clássicos do tema pesquisado e revistas científicas reconhecidas.

No link a seguir existem atalhos para alguns bancos de dados de literatura especializada da área de administração:

http://www.schneider.pro.br/paginas/atalhos_uteis.html


Uma idéia nesta seção, para tornar mais atrativo o interesse do leitor pelo conteúdo, é apresentar o conteúdo com o nome dos assuntos abordados, ao invés de informar um título de forma genérica, como por exemplo “Referencial Teórico”.



1METODOLOGIA


Na metodologia, deve-se descrever os procedimentos metodológicos efetivamente usados e não fazer uma dissertação de todos os métodos existentes. Apresentar os procedimentos e as classificações da pesquisa embasados em autores.




2Plano ou delineamento da pesquisa


No plano ou delineamento de pesquisa é importante deixar claro, previamente, qual os enfoques, abordagens e encaminhamentos utilizados. Há várias formas de desenvolver uma pesquisa, dependendo do contexto e que ele é realizada, mas todas elas seguem métodos científicos, portanto, com um encadeamento lógico.

Portanto, é necessário informar quais estes enfoque e encaminhamentos utilizados, e principalmente, justificar o motivo dessas escolhas, referenciando as justificativas com autores que atestam e/ou recomendam esta opção para o contexto em que ocorre a pesquisa em questão.

A seguir, segue uma tabela de uso prático mostrando as diversas possibilidades de enquadramento.


ENFOQUE:

Encaminhamentos mais utilizados – possibilidades

Propósito da pesquisa

Pesquisa aplicada

Avaliações de resultados

Avaliação formativa

Pesquisa diagnóstico

Proposição de planos

Contribuição para o conhecimento

Pesquisa exploratória

Pesquisa descritiva

Pesquisa explicativa

Base epistemológica

Método dedutivo

Método indutivo

Método hipotético-dedutivo

Método dialético

Método fenomenológico

Estratégia de investigação

Experimento de campo

Survey

Estudo de caso

Pesquisa-ação

Pesquisa-participante

Pesquisa histórica (análise de arquivos)

Pesquisa descritiva (do fenômeno)

Pesquisa exploratória

Pesquisa clínica

Pesquisa bibliográfica / documental

Pesquisa expost-facto

Pesquisa comparativa

Abordagem / tipo de dado

Ênfase qualitativa

Ênfase quantitativa

Instrumento de coleta

Entrevistas (pessoais, por telefone, por correio)

Índices e relatórios

Questionários (por correio, pessoais, por meio eletrônico)

Entrevistas em profundidade

Uso de diários


Observação participante

Entrevistas em grupo

Textos, documentos.

Técnicas projetivas:

-Associações;

-Completamento;

-Construção;

-Expressivas.

Testes

Observação

Análise dos dados

Métodos estatísticos (análise descritiva, análise espacial, etc)

Análise de conteúdo (análise de discurso;análise interpretativa, etc)

Ground theory

Desconstrução

Triangulação de dados

Freqüência de coleta

Transversal

Longitudinal

Num bom projeto de pesquisa, deve ser explicitado o encaminhamento utilizado em cada enfoque, justificando a escolha. Também a relação entre os diferentes enfoques deve ser analisada, trazendo à tona o devido encaminhamento lógico entre eles.

A descrição da metodologia:

Fonte: adaptado de KLERING, Luís Roque. Discussão de metodologias de pesquisa social. Escola de Administração, UFRGS. Porto Alegre, set. 2004. Seminário de Metodologia de Pesquisa ministrado no Programa de Pós-Graduação em Administração.






3Plano de amostragem


Posso usar uma amostragem não probabilística?

Pode. Ela é usada com naturalidade, por exemplo, em pesquisas para desenvolvimento de instrumentos de mensuração, onde o foco central não é o público pesquisado, mas sim, a acuracidade do instrumento de pesquisa.

No entanto, quando utilizar este tipo de amostra é importante deixar claro que o resultado da pesquisa não pode ser estendido à toda a população de onde se originou a pesquisa.


Como calculo o tamanho da amostra?

Em pesquisas quantitativas, há várias formas de calcular o tamanho da amostra. A mais recomendada segue o roteiro descrito a seguir:

O tamanho da amostra vai depender essencialmente, de alguns fatores: a dispersão ou variância dentro da população (quanto maior, maior a amostra), a precisão estimativa desejada (quanto maior, maior a amostra), o nível de confiança na estimativa (quanto maior, maior a amostra).

Parte-se do pressuposto de que não conhecemos esses dados previamente. Daí a importância de obtê-los com uma “amostra” ainda menor da amostragem que utilizaremos para a pesquisa, ou seja, um teste-piloto (realizado após o pré-teste).

Portanto, o primeiro passo é realizar o teste-piloto, e analisar os dados que o mesmo originou, em especial, o desvio-padrão. De posse desse dado, conforme COOPER et all (2003, p.162), pode-se aplicar a seguinte fórmula:


n= s² / (R/z)²


Onde:

n = nº de pessoas da amostra (dado a descobrir)

z = confiança, que é medido por meio de uma fórmula, mas para todos os efeitos, pode-se utilizar os seguintes padrões já calculados:

Confiança

z

68%

1,00

90 %

1,65

95%

1,96

98%

2,33

99%

3,00

s = desvio padrão conhecido da população; e

R = tamanho da estimativa intervalar que será aceita (risco), ou seja, qual a variação que será aceita em termos de pontos na escala.



E quando não sei o desvio padrão e nem o tamanho da população?

Na verdade, esta é a situação mais comum. Neste momento, conforme STEVENSON (1981, P.212) a fórmula utilizada será:


n= z²[p(1-p)/e²]


Onde:

p = proporção da população que se enquadra no modelo (quando não informada, utiliza-se 0,50 que estabelece o maior intervalo possível – metade da população)

e = erro tolerável


Exemplo: Qual o tamanho da amostra necessário para obter um intervalo de 95% de confiança para a proporção populacional, se o erro tolerável é de 8%?

Resposta: Se “z” (conforme tabela) = 1,96; “p” (maior possível) = 0,5 e “e” (8%) = 0,08; então “n” (tamanho da amostra) = 149,9 (arredondar para 150).


E quando não conheço o desvio-padrão, mas conheço o tamanho da população?

Para populações grandes, preferencialmente acima de 40 indivíduos (STEVENSON, 1981, p. 209), pode ser utilizada a seguinte fórmula:


n=[z²(x/n)[1-(x/n)](N)]/[(N-1)e²+z²(x/n)[1-(x/n)]]


os elementos novos nesta fórmula são:

N = o tamanho da população; e

x/n = quantidade de pessoas que se enquadram no esperado / total da amostra. No nosso caso, podemos utilizar x/n = p (já visto anteriormente).






4Instrumentos de coleta de dados


Com relação ao instrumento de coleta de dados, quando se tratar de questionários, é fundamental que seja definida, através de testes, a confiabilidade (fidedignidade) e validade do constructo.

Segundo LITWIN (1995) o teste de confiabilidade é imperativo e mede o desempenho de um instrumento em uma dada população, evitando o agrupamento de questões aparentemente mais relevantes. Ainda segundo FREITAS et all (2000) a validade e a confiabiliade são requisitos essenciais para uma medição.


Como determino a confiabilidade (fidedignidade)?

Para testar a confiabilidade do teste, um dos testes mais usuais é realizado utilizando-se o coeficiente Alfa de Cronbach, que mede a consistência interna do teste.


Diversas fomas de análise existem, principalmente para dados quantitativos (estatística). A pertinência de utilização de cada um vai depender do contexto e principalmente, de fatores como tamanho da amostra, número de variáveis e tipo de escala utilizada para as respostas. A seguir, expõem-se um roteiro prático para escolha do teste mais apropriado para algumas situações.


V1

V2

Teste

Pressupostos

Teste alternativo (não paramétrico)

Categórico

2 categorias

Escala intervalar

Teste t de Student

- V2 ter distribuição normal nas duas categorias de V1 (atenuante: grandes amostras*); e

- V2 ter variâncias iguais nas duas categorias de V1 (atenuante: usar variante do teste t)

Teste U de Mann-Whitney

Mais do que 2 categorias

Escala intervalar

Análise de variância (ANOVA)

- V2 ter distribuição normal em cada categoria de V1 (atenuante: grandes amostras); e

- V2 ter variâncias iguais em cada categoria de V1

Teste de Kruskal-Wallis (K-W)

Categórico

2 categorias

Escala ordinal

Teste U de Mann-Whitney

V2 ter disribuição contínua

Teste de

Mais do que duas categorias

Escala ordinal

Teste de Kruskal-Wallis (K-W)

V2 ter distribuição contínua

Teste de

Categórico


Categórico

Teste de

- Grandes amostras;

- Regra empírica: no máximo 20% das células têm freqüência < ou = 5 (é o esperado)

Reduzir categorias

Ordinal


Escala intervalar

Coeficiente de correlação de Spermann ou Kendall

Distribuições contínuas


Ordinal


Ordinal

Coeficiente de correlação de Spermann ou Kendall

Distribuições contínuas


Intervalar


Intervalar

Coeficiente de correlação de Pearson e Análise de Regressão

Distribuições normais


((notas))

* grande amostra = mais de 30 elementos;


TABELA 1 : Testes passíveis de serem utilizados

Fonte: adaptado de BECKER, João Luís. Tabela de referência rápida para escolha de testes de instrumentos de pesquisa. Escola de Administração, UFRGS. Porto Alegre, set. 2004. Disciplina de Métodos Estatísticos, ministrada no Programa de Pós-Graduação em Administração.


Tipos de variáveis:

No quadro, os símbolos V1 e V2 significam variáveis 1 e 2.

As variáveis podem ser Categóricas / não-métricas (nominais ou ordinais) ou métricos (intervalares ou de razão).

De modo geral, pode-se dizer que os dados não-métricos são qualitativos e os métricos quantitativos.


Exemplo de uma escala nominal: A – B – C – D – E - F

Exemplo de uma escala ordinal: 1º – 2º – 3º – 4º - 5º

Exemplo de uma escala intervalar: 1 – 2 – 3 – 4 – 5 – 6 – 7 – 8 – 9 – 10

Um escala de razão é praticamente igual, com a diferença de que o valor mínimo é o 0 (zero) absoluto. Ex.: 0 – 1 – 2 – 3 – 4 – 5

As escalas numéricas intervalares podem ser classificadas ainda como discretas ou contínuas. As escalas numéricas de razão da mesma forma.


Posso realizar estes testes no MS-Excel?

Alguns sim. Existem softwares específicos para análise estatística.

Encontram-se softwares desse tipo gratuitos na internet, porém, a maioria dos opensource (código aberto) ainda são pouco amigáveis. O melhor continua sendo o SPPS, que não é gratuito.

Para quem não pode adquiri-lo, o Excel, verdadeiro canivete suíço, continua pode ser uma opção para os testes mais elementares e até alguns mais avançados.

Com o Excel aberto, acesse o menu “ferramentas” e no final dessa guia, clique na atalho “Análise de dados”. Nesse momento abre-se uma tela como a exposta a seguir, solicitando qual o tipo de teste a ser realizado.




Não tenho a opção de Análise de Dados” no Excel. O que faço?

O objetivo do Excel não era fazer cálculos estatísticos. Assim, quando é feita a instalação típica do "Office", a opção Análise de Dados não está ativa. A primeira providência para usar o Excel então é acrescentar a opção de análise de dados, de seguinte forma:

1. Executar o Excel

2. Clicar em ferramentas / suplementos

3. Na janela que se abre clicar em "Ferramentas de análise". Esperar instalar - OK

4. Clicar em ferramentas e, no final do menu que se abre, deve aparecer a opção

Análise de Dados.


O Excel funciona muito bem para estatística descritiva, ou seja uma análise dos fatores estatísticos mais básicos, como média, mediana, invariância e desvio padrão de amostras.

Exemplo:

Suponha que os seguintes dados representam a quantidade de anos de estudo da população em duas cidades (A = Antônio Prado e B = Bom Retiro do Sul). Calcular média, mediana, invariância e desvio padrão das amostras A e B, usando a opção Estatística Descritiva do Excel.


A = 6, 7, 7, 7, 8, 8, 8, 9, 9, 9, 10, 10, 11, 12, 12, 13, 14, 14, 14, 15, 16, 16, 16, 17, 17, 17, 18, 18, 18, 19

B = 1, 2, 2, 3, 3, 4, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 16, 17, 18,19, 20, 21, 22, 23, 23, 25, 26


1. Executar o Excel (botão iniciar / Excel)

2. Digitar a amostra A na coluna A e a amostra B na coluna B

3. Selecionar a coluna A de dados

4. Clicar e segurar a tecla "ctrl" e teclar em c

5. Clicar em ferramentas / análise de dados

6. Na janela que se abre clicar em "Estatística Descritiva" - OK

7. Em "Intervalo de entrada" digite o intervalo em que os dados serão lidos.

Exemplo: Na coluna A os dados estão entre os campos A1 e A30.

Então, o intervalo de entrada é $A$1:$A$30

8. Deve estar marcado "Agrupado por colunas"

9. Marcar "Intervalo de saída". É onde o Excel mostrará o resultado.

(Colocar uma célula vazia, onde não haja dados, e que fique bem visível). Ex: $D$1

10. Marcar "Resumo Estatístico"

11. Em "Nível de confiabilidade para a média" deve estar 95%. Clicar em OK.

12. Repetir os procedimentos 3 a 11 para a amostra B, com "Intervalo de entrada" = $B$1:$B$30 e "Intervalo de saída" = $G$1


Como é possível perceber, já que o Excel não é preparado para este tipo de análises, o trabalho deve ser realizado coluna a coluna, enquanto que em outros softwares, como o SPSS, o resultado pode ser automático para todas as colunas.





ANÁLISE DOS DADOS


Alguns dos testes relacionados no capítulo anterior que fala da fidedignidade do questionário, podem ser utilizados também para análise dos dados.

No entanto, a preferência é por modelos mais desenvolvidos.

Para familiarizar-se com os métodos estatísticos, sugere-se a obra do prof. Lucildo Alhert, referenciada ao final, que pode trazer informações importantes para quem necessita desses modelos nas suas análises.


Análise de conteúdo:

Embora alguns softwares já realizem análise de conteúdo, com base na contagem de palavras, o método mais eficiente continua sendo o da análise contextual e interpretativa, realizada pelo pesquisador.

Na interpretação dos dados coletados, o método de Análise de Conteúdo, é baseado em uma metodologia sistemática e objetiva que permite “descrever e interpretar o

conteúdo de toda classe de documentos e textos” (MORAES, 1999, p.9). A “análise de

conteúdo” pode seguir as recomendações baseadas em trabalho de Moraes (1999, p.9), que salienta que essa metodologia “ajuda a reinterpretar as mensagens e a atingir uma compreensão de seus significados num nível que vai além de uma leitura comum”.

A metodologia da Análise de Conteúdo, segundo Moraes (1999), envolve cinco etapas

predefinidas: a preparação das informações, a separação do conteúdo em unidades, a

categorização, a descrição e a interpretação.

Na preparação das informações identificam-se as amostras representativas e

pertinentes a serem analisadas. Nessa análise já se estabelece uma codificação aos materiais, possibilitando a rápida identificação de cada elemento da amostra de depoimentos.

A unitarização (separação em unidades) compreende a divisão do material em

unidades de análise, que também foram codificadas após uma releitura do material. Essas

unidades foram, por exemplo, as perguntas abertas dirigidas aos entrevistados e/ou parágrafos definidos na transcrição. Elas foram isoladas, para permitir uma posterior classificação, embora algumas tenham sido agrupadas após, em unidades de contexto que permitiram tecer semelhanças interpretativas entre elas.

A definição do tamanho da unidade depende da riqueza e da complexidade do material coletado, determinando unidades menores ou maiores. Uma vez definidas, elas são novamente codificadas e isoladas.

Pode-se fazer uso de planilhas de cálculo para a classificação, ordenação e manipulação das unidades de análise. Durante o processo, com a “depuração” do material, pode haver também perda de parte da informação do material analisado (MORAES, 1999); no entanto, isso é inerente ao método e conseqüência do uso da interpretação do pesquisador, que buscará eliminar sistematicamente os dados que menos atendem aos objetivos, sempre baseado na sua própria perspectiva.

A categorização se incumbe de agrupar os dados em função da possibilidade de tecer

relações diretas ou homogêneas entre eles. Essa junção pode ser realizada com base em

critérios semânticos ou sintáticos. Como afirmam Olabuenaga e Ispizuá (apud MORAES,

1989, p.19), “o processo de categorização deve ser entendido em sua essência como processo de redução de dados”. No entanto, não deve ser uma redução fria e feita de forma autômata – deve-se extrair dos dados o seu significado subliminar, lendo as entrelinhas do que disse o entrevistado. Nesse ponto, novamente aparecem as vantagens do método da Análise de Conteúdo, que permite realizar com mais flexibilidade essa leitura.

Esse processo de categorização, no entanto, deve ser realizado com muito cuidado, a

partir da análise do material de forma cíclica e circular, retornando aos dados periodicamente e buscando seu refinamento, sem ter em mente a necessidade de um processo seqüencial e simplesmente reducional. As categorias encontradas “devem ser válidas, exaustivas e homogêneas. A classificação de qualquer elemento do conteúdo deve ser mutuamente exclusiva” (MORAES, 1999, p.19 – grifo do autor).

As três primeiras especificações de Moraes querem dizer que cada categoria deve ser

adequada ou pertinente, não deve sobrar nenhum dado significativo que não possa ser

classificado com base num único princípio. A exclusão mútua significa que cada elemento

pode ser alocado em apenas uma categoria.

Na descrição, inicia-se a comunicação do resultado da análise do trabalho. No caso da

pesquisa qualitativa, conforme Moraes (1999), “para cada uma das categorias será produzido um texto-síntese em que se expresse o conjunto de significados presentes nas diversas unidades de análise incluídas em cada uma delas”.

Finalmente, tem-se a interpretação, que avança além da descrição das unidades.

Mediante inferência e interpretação, procura-se aprofundar a análise dessas unidades, no sentido de extrair delas considerações que respondam aos objetivos de pesquisa e se relacionem com os enunciados dos autores abordados na referência bibliográfica.

É importante ter em mente que, apesar de os objetivos estarem definidos, de a entrevista ser conduzida com foco nesses objetivos e de a categorização buscar manter esse foco, a metodologia da análise de conteúdo pode acarretar o surgimento de informações novas importantes no decorrer da pesquisa. A primeira parte do processo, que pode ser denominada de “desconstrução” (Moraes, 2003), é conduzida pelo pesquisador com base nos objetivos propostos; a segunda parte, a reconstrução, cria condições para o surgimento de novos entendimentos; portanto, não inteiramente sob controle do pesquisador.

Exemplo de uso da análise de conteúdo:

SCHNEIDER, Alexandre Marcelo. Análise da influência dos valores do cooperativismo na definição dos estilos de liderança. 2005. 230p. Dissertação (Mestrado em Administração) – Escola de Administração, Universidade Federal do Rio Grande do Sul, Porto Alegre.



Técnicas Estatísticas Exploratórias: Estatística Multivariada


Nos estudos estatísticos há “uma diferenciação rigorosa se um fenômeno é baseado em uma, duas ou muitas variáveis (mono-, bi- ou multivariado), pois as técnicas estatísticas utilizadas para cada um desses três casos variam muito e são tratadas separadamente”. (WANGENHEIM, 2006).

Um conjunto de dados multivariado é um conjunto de dados onde cada caso ou observação de um fenômeno é descrito por um conjunto de várias variáveis, sendo representado tipicamente por um padrão (n+1)-dimensional, onde n>2 é número de variáveis necessárias para descrever o fenômeno ou observação e a variável n+1 descreve a classe à qual este determinado padrão pertence.

(WANGENHEIM, 2006)


Do ponto de vista da Estatística, a Análise de Dados Exploratória (ADE) ou Estatística Exploratória pode ser definida como “técnicas úteis para reconhecimento e descoberta de padrões em ambientes onde os fenômenos são descritos/baseados em uma grande variedade de dados”. (WANGENHEIM, 2006)

Como sugere o o nome, é uma espécie de garimpagem de dados ou relações entre estes.


Ao contrário dos testes de hipóteses tradicionais, projetados para verificar uma hipótese a priori acerca de relacionamentos entre variáveis ( "Existe uma correlação positiva entre a IDADE de uma pessoa e o NÍVEL_DE_VIOLÊNCIA dos filmes locados em uma locadora ?"), a Análise de Dados Exploratória (ADE) é utilizada para a identificação de relacionamentos sistemáticos entre variáveis quando não existem expectativas a priori acerca da natureza destes relacionamentos ou estas são incompletas. Em um processo de ADE típico, muitas variáveis diferentes são consideradas e comparadas. Isto é realizado utilizando-se uma grande variedade de técnicas e modelos matemáticos com o objetivo de se encontrar padrões nestes dados.

Wangenheim (2006)


Segundo Wangenheim (2006), as técnicas de ADE podem ser divididas em dois grupos.

Métodos Estatísticos Exploratórios Básicos. São técnicas mais complexas, utilizadas para analisar a distribuição variáveis, verificar matrizes de correlação para encontrar coeficientes acima de determinados limiares ou examinar tabelas de freqüência multivias.

Técnicas Exploratórias Multivariadas. São técnicas projetadas especificamente para identificar padrões em conjuntos de dados multivariados ou conjuntos de dados univariados representando seqüências de observações ou mensurações de um fenômeno.

Ainda segundo Wangenheim, as técnicas multivariadas são comumente divididas em:





Análise Fatorial (Factor Analysis)



A Análise Fatorial é uma técnica da ADE para:

  1. reduzir o número de variáveis descrevendo um fenômeno e

  2. detectar estruturas nos relacionamentos entre variáveis, classificando-as. O método é, portanto, aplicado tanto como técnica de redução de dados como de detecção de estrutura.

    Enfim, ela permite identificar variáveis ou fatores que expliquem correlações dentro de um conjunto de variáveis. Por exemplo, pode-se usar esse procedimento na redução de dados para identificar um pequeno número de fatores que explique muita das variações observadas em um número muito maior de variáveis. A análise fatorial possui um alto grau de flexibilidade, fornecendo a você diversos métodos para extração de fator, rotação e cálculo de escoragem do fator.

    A seguir, segue um breve relato do prof. Wangenheim, descrevendo de forma bastante didática, a pertinência da utilização desse método:



    Análise Fatorial (Aldo von Wangenheim)

    Utilizemos um exemplo bem simples para mostrar a utilidade da redução de dados: Suponha que realizamos um estudo qualquer e que conduzimos este estudo acerca de dados biométricos de forma bastante mal projetada e que entrevistamos 100 pessoas, medindo, entre outras coisas, a altura dessas 100 pessoas tanto através da utilização de uma trena de pedreiro antiga (medida em polegadas) quanto de uma fita métrica de alfaiate (medida em centímetros). No conjunto total de dados adquiridos de cada entrevistado teremos, portanto, duas variáveis diferentes expressando exatamente a mesma coisa, porém uma com valores expressos em polegadas e outra com valores em centímetros. Se, em estudos futuros quisermos pesquisar, por exemplo, como alterações nutricionais afetam a altura das pessoas, não faz sentido algum utilizar essas duas variáveis. A altura de uma pessoa é uma só, não importando em qual unidade de medida foi expressada.


O que nós precisamos é um método que nos diga que essas duas variáveis são redundantes porque se comportam exatamente da mesma maneira ou de maneira muito parecida e nos permitam substituir essas duas variáveis por outra, que represente de forma consolidada o comportamento de ambas. Isso é possível de ser feito quando há uma forte correlação entre as variáveis.


Vamos agora extrapolar deste estudo "bobinho" para algo que faça sentido do ponto de vista de pesquisa estatística: Suponha que você deseja estudar e medir a satisfação das pessoas com as vidas que levam.


Para tanto, você projetou um questionário de satisfação contendo muitos itens. Entre outras coisas, você pergunta aos entrevistados se eles estão satisfeitos com seus hobbies (item 1) e com qual intensidade eles estão se dedicando a um hobby (item 2). É muito provável que as respostas a estes dois itens estejam correlacionadas muito fortemente, pois é natural esperar que uma pessoa satisfeita com seu hobby também encontre prazer em praticá-lo e o pratique com freqüência e assiduidade. Se houver uma correlação alta entre essas duas variáveis, podemos concluir que são redundantes. Levantar dados redundantes é uma coisa comum em pesquisas pois: nem sempre é possível prever todos os correlacionamentos e alguma coisa pode passar despercebida, por mais óbvia que seja e também porque em muitos casos não fazemos a menor idéia de como um fenômeno se comporta e não temos como prever que duas variáveis que especificamos são redundantes.


Pode-se visualizar a correlação entre duas variáveis quaisquer em um scatterplot. Neste gráfico pode-se visualizar uma linha de regressão ajustada de forma a representar o "melhor" relacionamento linear entre as duas variáveis. Se nós pudermos definir uma variável sintética capaz de aproximar a linha de regressão em um plot destes, então esta variável vais capturar a maior parte da essência dos dois aspectos do fenômeno observado descritos por essas duas variáveis. Assim reduzimos duas variáveis a´um único fator. Observe que esse fator é o resultado de uma combinação linear dessas duas variáveis. A figura abaixo mostra um scaterplot de duas variáveis com correlação positiva: altura e peso de pessoas em uma enquete. Essas duas variáveis obviamente possuem uma correlação, apesar dela não ser perfeita, e poderíamos exprimir uma combinação linear das duas através de uma variável tamanho_da_pessoa, dada pela função linear representada pela linha de regressão que interpola o scaterplot.






Este exemplo de combinação de duas variáveis correlacionadas em um fator é o que melhor ilustra a idéia básica da Análise Fatorial: a análise de Componentes Principais. Se estendemos o conceito para a utilização simultânea de mais de duas variáveis a computação necessária tornar-se-á mais complexa mas o princípio básico de se expressar várias variáveis através de um fator que descreve sua correlação permanece o mesmo.


A figura abaixo mostra duas variáveis sem nenhuma correlação aparente.









Realizando uma análise fatorial exploratória usando SPSS (exemplo):


Imaginando que um questionário para medir alguns atributos relacionados à imagem de uma empresa na comunidade, foi aplicado com as seguintes questões:



Na condição de cliente VIP da empresa “X”, que IMPORTÂNCIA tem para VOCÊ:

Mínimo --- ao --- máximo

1

Pontualidade na prestação de serviços

1

2

3

4

5

2

Cordialidade no atendimento

1

2

3

4

5

3

Fornecimento de energia sem variação de tensão/qualidade

1

2

3

4

5

4

Filosofia corporativa

1

2

3

4

5

5

Ser tratado de forma diferenciada

1

2

3

4

5

6

Inserção comunitária com projetos sociais, ambientais e educação nas escolas

1

2

3

4

5

7

Empresa com marca de credibilidade

1

2

3

4

5

8

Variedade na oferta de produtos/mercadorias

1

2

3

4

5

9

Propaganda e notícias da empresa no jornal da sua cidade

1

2

3

4

5

10

Propaganda e notícias da empresa na TV

1

2

3

4

5

11

Propaganda e notícias da empresa nas Rádios locais

1

2

3

4

5

12

Comunicação por e-mail e internet com a empresa

1

2

3

4

5

13

Atendimento 24 horas

1

2

3

4

5

14

Programa da empresa no rádio

1

2

3

4

5

15

Folders e informes

1

2

3

4

5

16

Contato com Gerente

1

2

3

4

5

17

Atendimento dos funcionários

1

2

3

4

5


Além de analisar os resultados em relação à importância (objetivo da pesquisa) ela poderia ser qualificada agrupando os atributos em fatores, que poderiam ser trabalhados em conjunto numa ação de melhoria da imagem perante este cliente VIP:


Passo a passo:


  1. Selecione a ferramenta específica no Menu:











  1. Selecione as variáveis:





  1. Botão Extraction...




  1. Botão Rotation...





  1. Botão Fator Scores...





  1. Clicando em OK, o processamento é iniciado. Os relatórios são gerados automaticamente.

    O quadro a seguir faz referência à variância total explicada, tanto dos atributos individualmente, quanto ao acumulado dos atributos.

    Como solicitamos os atributos com eigenvalues maiores de 1, estes são classificados em primeiro e, neste exemplo específico são 4, responsáveis por mais de 51% da variância explicada.

    Estes são os nossos fatores principais, que podem agrupar alguns atributos (questões) do formulário da pesquisa.

    Vide o formulário:


Component

Initial Eigenvalues


Total

% of Variance

Cumulative %


1

5,013

29,490

29,490


2

1,591

9,361

38,851


3

1,169

6,879

45,730


4

1,064

6,258

51,988


5

,970

5,705

57,693


6

,914

5,379

63,072


7

,832

4,891

67,963


8

,744

4,376

72,339


9

,702

4,132

76,471

10

,665

3,909

80,381

11

,627

3,690

84,070

12

,591

3,478

87,549

13

,513

3,018

90,567

14

,432

2,540

93,106

15

,419

2,466

95,572

16

,384

2,257

97,829

17

,369

2,171

100,000

Extraction Method: Principal Component Analysis.


  1. Selecione os atributos que integram cada um dos fatores encontrados:

    Visualizando a tabela “Componet Matrix” devem ser selecionados os atributos com valor mais alto e homogêneo em cada coluna. Este processo deve ser feito das colunas da esquerda para a direita, pois um mesmo atributo pode ter valores altos em mais de uma coluna, sendo enquadrado preferencialmente na seleção homogênea mais a esquerda.

    Ex.:

    Component Matrix(a)


Component

1

2

3

4

I - Pontualidade na prestacão de serviços

,499

,482

,045

-,269

I - Cordialidade no atendimento

,483

,262

,306

-,303

I - Fornecimento de energia sem variacão de tensão/qualidade

,461

,278

,518

-,168

I - Empresa com filosofia cooperativa

,569

-,089

,332

-,031

I - Ser tratado de forma diferenciada por ser associado

,286

-,104

,473

,132

I - Insercão comunitária com projetos sociais, ambientais educação nas escolas

,531

,176

-,189

,257

I - Empresa com marca de credibilidade

,602

,133

,157

,348

I - Variedade na oferta de produtos/mercadorias

,556

,247

-,415

-,064

I - Propaganda e noticias da empresa no jornal de sua cidade

,575

-,360

-,289

-,307

I - Propaganda e noticias da empresa na TV

,601

-,338

-,110

-,335

I - Propaganda e noticias da empresa nas Rádios locais

,665

-,372

-,134

-,068

I - Comunicacão por e-mail e internet com a empresa

,646

-,253

,064

-,223

I - Atendimento 24 horas

,504

,491

-,196

,098

I - Programa de radio Contato Direto

,620

-,362

,081

,280

I - Jornal Choque

,532

-,296

-,044

,255

I - Contato com Gerente das lojas

,459

,017

-,004

,498

I - Atendimento dos funcionários

,528

,422

-,271

,012

Extraction Method: Principal Component Analysis.

a 4 components extracted.


    Da tabela acima teríamos a seguinte organização:

    FATOR A: Todos os atributos marcados em amarelo. O fator em laranja, não está mais tão homogêneo, mas encontra-se no limiar dos demais. Por ser um assunto relacionado, optou-se ainda em incluí-lo.

    FATOR B: Selecionaram-se todos os atributos acima de 400 (marcados em verde);

    FATOR C: Novamente todos fatores acima de 400 (os dois em azul)

    FATOR D: Apenas um fator em destaque e com pontuação alta (em vermelho)

    Os demais atributos são especificados com “sem enquadramento”.

    Em havendo interesse, pode-se ampliar o número de fatores. Se olharmos no quadro anterior “Initial Eigevalues”, percebe-se que com 8 fatores explicaríamos 72,34 % da variância da amostra.

  1. Para aumentar o número de fatores, basta solicitar a quantidade de fatores na tela específica e refazer o processo:


.





  1. CARACTERIZAÇÃO DA ORGANIZAÇÃO E DO AMBIENTE


Na Caracterização da Organização devem ser apresentadas as informações relativas a empresa em que o aluno desenvolveu o estágio. É importante que o aluno informe de onde obteve os dados, se foi através de consultas a relatórios (informar quais), entrevista com diretores ou outras formas.

Esta é uma parte cujo texto normalmente não apresenta citações diretas ou indiretas.





  1. ANÁLISE E APRESENTAÇÃO DOS RESULTADOS


Na apresentação dos dados, o aluno deve fazer referências a autores utilizados no Referencial Teórico relacionando-os aos resultados encontrados, confirmando ou não os pressupostos apresentados.




Descrição dos dados coletados


Como devo apresentar os dados?

Quando se utiliza gráficos, como regra geral (sujeita ao contexto) há uma tendência de se obterem melhores interpretações apresentando-se da seguinte forma:

Se foram utilizadas variáveis ordinais = histogramas (gráfico tipo barra);

Se foram utilizadas variáveis nominais = gráficos tipo “pizza”.







  1. CONCLUSÕES, PROPOSTAS E SUGESTÕES


Nas conclusões não devem ser inseridas citações diretas ou indiretas e sim fazer a conclusão quanto ao problema estudado e analisar os resultados quanto aos objetivos do trabalho, além de reforçar os principais achados.






BIBLIOGRAFIA:


AHLERT, Lucildo. Estatística Básica para Cursos de Graduação. Texto Didático. Lajeado: n.3.


COOPER, Donald R.; SCHINDLER, Pamela S.. Métodos de pesquisa em administração. 7.

ed. Porto Alegre: Bookman, 2003. 640p.


FREITAS, H. At all. O método de pesquisa survey. Revista de Administração. São Paulo: v.35, n.3, p.105-112, julho/setembro 2000.


LITWIN, M.S. How to measure survey reliability and validity. Sage Publications Inc. Survey Kit. 1, 1995.


MORAES, Roque. Análise de Conteúdo. Educação. Porto Alegre: Pontifícia Universidade

Católica do Rio Grande do Sul. v.22, n.37, p.7-32, mar. 1999.

______. Uma tempestade de luz: a compreensão possibilitada pela análise textual discursiva. Ciência & Educação, Bauru: UNESP – Faculdade de Ciências. v.9, n.2, p.191-211, 2003


NETO, J.D.O; RICCIO, E.L.. Desenvolvimento de um Instrumento para Mensurar a satisfação dos usuário de sistemas de informações através do método survey. Universidade de São Paulo: Faculdade de Economia, Administração e Contabilidade. [ ]


WANGENHEIM, Aldo von. Reconhecimento de padrões: técnicas estatísticas. Disponível em : http://www.inf.ufsc.br/~awangenh/RP/estatisticas.html. Acesso em 23 mai 2006.





topo




Atualizado em 09/04/07