O que é má conduta científica?

By | Uncategorized | No Comments

Sula Maria Cavalcante Vieira – sulacvieira@gmail.com

Mestranda em Psicologia Social, do Trabalho e das Organizações, Universidade de Brasília

Ensaio desenvolvido na disciplina Delineamentos de Pesquisa em 2019/2 – Prof. Fabio Iglesias

 

Klaus Fiedler (2011) e Charles Gross (2016), abordam em diferentes artigos o que caracteriza a má conduta científica e apresentam medidas para redução desse problema acerca da produção acadêmica.

Fiedler (2011), com o trabalho intitulado de “Voodoo correlations are everywhere – not only in neuroscience”, traz uma série de vieses que podem provocar resultados exacerbados no contexto do saber científico, não só na neurociência, que se tornou uma área visada e com muitas produções de resultados duvidosos. “Voodoo Correlations” é uma ironia sobre correlações tão grandiosas que parecem até supersticiosas.

Resultados não são acessados integralmente e integramente quando se escolhe a amostra de pesquisa de forma não independente dos resultados de pesquisa, quando se manipula a forma de dar comandos aos participantes (estimulando respostas esperadas), quando itens são excluídos de questionários no momento das análises, e quando a divulgação de resultados dependem de influências de financiamento.

As distorções acima são alguns dos exemplos que ilustram condutas de alguns “cientistas”. Fiedler (2011), argumenta que as estruturas de reforço no meio científico podem ser motivadores para estudiosos/as tomarem decisões “infladoras” de resultados. Grandes efeitos são procurados por jornalistas, estudantes e políticos, e pesquisadores que encontram grandes efeitos são vistos, lembrados e se tornam renomados. O autor ressalta a importância da transparência com relação a restrições e limitações do estudo de alguns fenômenos, e relembra que informações claras contribuem sim com a ciência, mesmo que sem efeitos correlacionais impressionantes, pois ajudam na construção de teorias e registram condutas e ideias que já foram colocadas em prática.

Em 2016, Charles Gross publicou um trabalho intitulado de “Scientific Misconduct”, a convite da renomada Annual Review of Psychology, onde abordou em detalhes a história da má conduta científica e o engajamento do governo norte-americano com medidas para resolução dessa problemática, trazendo exemplos de situações antiéticas memoráveis a partir dos anos 1980, que foram motivadoras para esse envolvimento.

De acordo com o Instituto Nacional de Saúde e com a Fundação Nacional de Ciência (ambos norte-americanos) a definição de má conduta é falsificaçãomanipulação de materiais, equipamentos ou processos, ou alteração de dados/resultados, fabricaçãoinventar dados e resultados, e plágiocopiar ideias, processos, resultados e falas de outras pessoas sem dar crédito. Ressaltando que má conduta científica não inclui erros e diferenças de opinião, e nem outros tipos de ofensas (uso indevido de fundos, abusos e discriminação).

Alguns dos casos que motivaram o envolvimento governamental: John Long – pesquisador que teve avanços falsos nos estudos sobre linfoma de Hodkin (usou linhas de tecido de macacos como se fossem humanas), Vijay Soman – professor assistente da Universidade de Yale, que roubou dados de uma pesquisa inteira de Helena Rodbard sobre anorexia nervosa. Até o momento, não há evidências de características em comum entre pessoas que agem de maneira antiética no mundo científico. São de áreas distintas, em distintas instituições e níveis de ocupação. Há um estereótipo de que são pessoas que publicam em locais visados.

A partir de acontecimentos como os citados acima, houve a movimentação de diferentes institutos de pesquisa para investigar se esses casos eram esporádicos na ciência ou se seriam só a ponta do iceberg (preocupação do senador Al Gore). Em uma das pesquisas amplas e pioneiras para investigar a incidência de má conduta científica, Judith Swazey encontrou dados preocupantes entre 99 universidades dos EUA: 44% dos estudantes e 50% do corpo docente tinha conhecimento de 2 ou mais tipos de má conduta, aproximadamente 10% observou ou teve envolvimento direto em fabricação de dados. A Sociedade Internacional de Bioestatística Clínica, com pesquisa também anônima entre os membros, compartilhou que 51% dos entrevistados sabiam de pelo menos um projeto fraudulento nos últimos 10 anos.

A retração de artigos publicados foi uma das medidas tomadas a partir do cenário encontrado. Pesquisadores publicamente retraem artigos que foram analisados erroneamente, ou trabalhos que foram construídos a partir de algum tipo de má conduta. Dados interessantes sobre retrações foram compartilhados por Fang et al, em 2012: de 2047 retrações de artigos biomédicos, 23% foram devido a erros e 67% foram devido a algum tipo de má conduta, sendo a maioria por fraude ou suspeita de fraude (43%). Outro dado que é interessante é que artigos retraídos continuam sendo citados pelos próprios autores (18%), e apenas 5% mencionam que foi um trabalho que teve retração.

A pesquisa também apontou dados com relação a países com maiores casos de fraudes (EUA, Japão, Alemanha e China), mas essa análise pode ser questionada porque quando se pensa no Brasil, por exemplo, sabemos que não há políticas, incentivos e pesquisas que tratam a má conduta científica, o que impossibilita saber de números reais com relação a índices dessa prática. Quantos outros países são impedidos de entrar nesse ranking por não terem dados sobre má conduta também?

Atualmente, blogs têm um papel importante na promoção de uma conduta ética no mundo científico. Já são encontradas várias páginas destinadas a lidar com possíveis situações de má conduta, expondo retrações, explicações e denúncias (todos internacionais, até o momento não foi encontrado nenhum com objetivo a enfraquecer a má conduta científica no Brasil).

Diferentemente dos EUA, no Brasil também não existe incentivo a comitê de investigação de má conduta em grandes instituições, como passou a ser cobrado das grandes instituições de pesquisa dos EUA.

Outras políticas comuns estadunidenses, são o estímulo a denúncias e cursos de conduta responsável de pesquisa desde os primeiros anos na universidade. Pré registro de dados e propostas de pesquisa também podem beneficiar quem conduz pesquisas de forma ética e beneficiar o conhecimento científico de modo geral.

Gross, assim como Fiedler, ressalta as estruturas de reforço que podem motivar pesquisadores a agirem de maneira desvirtuosa, como a quantidade de publicações ser um critério para benefícios (prêmios, nomeações). Visando não contribuir com essa estrutura, algumas instituições importantes já começaram a analisar menos trabalhos de forma criteriosa em vez de observar a quantidade de trabalhos já publicados por candidatos.

Enfim, fica claro e bem exemplificado que a má conduta científica permeia a construção de ciência no mundo. Temos aqui vieses de má conduta científica a partir de análises de um estadunidense e de um alemão. O que precisa ser feito para termos políticas de prevenção a má conduta científica no Brasil?

Referências

Fiedler, K. (2011). Voodoo correlations are everywhere: Not only in neuroscience. Perspectives on Psychological Science, 6, 163-171.

Gross, C. (2016). Scientific misconduct. Annual Review of Psychology , 67 , 693-711.

Definição da amostra de pesquisa: Um guia prático

By | Uncategorized | No Comments

Stela Faiad – stelafaiad@gmail.com

Ensaio desenvolvido na disciplina Delineamentos de Pesquisa em 2019/2 – Prof. Fabio Iglesias

A definição da amostra em uma pesquisa é um fator crítico no campo científico, uma vez que verificar se o tamanho da amostra é representativo é um questionamento difícil de se responder. O presente ensaio traz uma análise do estudo realizado por Robertson e Sibley (2018) intitulado como Research sampling. A pragmatical approach.

Escolher o tamanho da amostra pode se tornar muito complexo e os autores apresentam informações importantes para auxiliar os pesquisadores nesse desafio. Eles discutem informações como: definições conceituais de amostras e seus diferentes tipos, taxas de respostas, margem de erro, peso amostral, ajustes e recomendações práticas.

Conceitos principais

Os autores apresentam os conceitos principais divididos em amostras probabilísticas (ou aleatórias) e amostras não probabilísticas. Como amostra probabilística eles definem como a mesma probabilidade conhecida de que cada pessoa tem de ser selecionado de forma aleatória, ou quando é possível calcular a chance de uma pessoa ser selecionada.

Como não probabilística, eles definem como quando não há formas de se generalizar os resultados obtidos na amostra para o todo da população, uma vez que os elementos da amostra não têm a mesma probabilidade de serem escolhidos e, por isso, não é possível fazer inferências sobre a população.

Os autores discorrem sobre alguns tipos de amostra probabilística e não probabilística.

Amostragem probabilística ou aleatória: amostragem aleatória simples; amostragem estratificada; amostragem estratificada desproporcional; amostragem agrupada.

Amostragem não probabilística: amostragem por cotas; amostragem acidental; amostragem intencional.

A seguir serão apresentadas de forma resumida as definições conceituais que os autores discorrem no artigo.

1 – Amostragem probabilística ou aleatória

1.1 – Amostragem aleatória simples.

É o alicerce de todas as amostras científicas, na qual todos têm uma chance igual de serem incluídos na pesquisa.

Figura 1. Exemplo de amostragem aleatória simples apresentado por Robertson e Sibley (2018)

Como exemplo os autores mostram uma situação hipotética de resposta a um questionário em uma organização em que são selecionados aleatoriamente 300 funcionários em uma organização com uma força de trabalho total de 2.000 pessoas. Nesta situação de amostra hipotética, considere que a taxa de resposta seja 100% porque os 300 funcionários foram “obrigados” pelo CEO a participar. Esta é uma amostra aleatória simples e pura, porque cada um dos 2.000 funcionários tem uma chance conhecida e igual de serem incluídos na amostra.

1.2 – Amostragem estratificada

Segundo os autores, a amostragem de probabilidade estratificada pode ajudar a reduzir o impacto do erro de pesquisa. Se um pesquisador sabe previamente que as taxas de resposta serão mais baixas ou mais altas em alguns grupos, eles podem estratificar sua amostra com características conhecidas previamente e direcionar um número específico de respondentes em cada estrato.

Figura 2. Exemplo de amostragem estratificada apresentado por Robertson e Sibley (2018)

 

 

1.3 – Amostragem estratificada desproporcional

Trata-se de uma possibilidade de aplicar uma probabilidade de seleção diferente para cada estrato, ou seja, selecionar aleatoriamente um número maior de funcionários de departamentos onde você antecipa uma resposta mais baixa e vice versa.

Figura 3. Exemplo de amostragem estratificada desproporcional apresentado por Robertson e Sibley (2018)

1.4 – Amostragem agrupada

Em situações difíceis de conseguir uma amostra aleatória tem-se como opção a amostragem agrupada, que é bem utilizada em situações como por exemplo, pesquisas nacionais em que se torna inviável mandar um entrevistador para cada domicílio selecionado aleatoriamente. Em situações como essa, uma abordagem mais prática seria estratificar a geografia do país de alguma forma (por exemplo, urbano de alta densidade, semi-urbano, provincial e rural), aleatoriamente, selecionar áreas dentro de cada estrato.

2 – Amostragem não probabilística

2.1 – Amostragem por cotas

Desenvolvida pela indústria de pesquisa de mercado, os pesquisadores estabelecem metas ou cotas, com base em certas informações demográficas, tais como características da população, como idade, sexo ou região.

Segundo os autores, em muitos momentos a amostragem probabilística pode ser cara e demandar muito tempo. Nestes casos, a amostragem não probabilística vem como opção. Como possibilidades de coleta de dados de amostras não probabilísticas os autores apresentam alguns tipos mais comuns e discorrem sobre os pontos positivos e negativos. São eles: alunos de graduação, facebook e mídias sociais e mechanical turk.

Guia prático para definição do tamanho da amostra por Robertson e Sibley (2018)

  1. Defina a população que você deseja estudar.
  2. Defina o seu quadro de amostra e determine as fontes de que não foram contempladas no estudo.
  3. Considere o vies de resposta.
  4. Decida como você vai medir as suas respostas.
  5. Decida se deve avaliar sua pergunta de interesse como uma variável categórica, discreta ou contínua.
  6. Decida qual a margem de erro que você está disposto a aceitar.
  7. Faça uma estimativa da sua taxa de resposta esperada.
  8. Calcule o tamanho da amostra que você precisa.

Referência

Robertson, A., & Sibley, C.G. (2018). Research sampling: A pragmatic approach. In P. Brough (Ed.), Advanced research methods for applied psychology: Design, analysis and reporting (pp. 27-48). New York: Routledge.

Estatística e design | Validação de construto

By | Uncategorized | No Comments

Martina Mazzoleni – mzl.martina@gmail.com 

Doutoranda no Programa de Pós-Graduação em Psicologia Social, do Trabalho e das Organizações

Ensaio desenvolvido na disciplina Delineamentos de Pesquisa em 2019/2 – Prof. Fabio Iglesias

 

Compreender a relação de reciprocidade entre análises estatísticas e delineamento de pesquisa é fundamental para alcançar resultados confiáveis de pesquisa. A respeito desses dois fatores, Savla e Loewenstein (2016) apontam o delineamento como o mais importante. Isso porque este é capaz de definir a forma como os dados serão analisados, ao passo que as análises estatísticas são insuficientes para compensar um mau planejamento de pesquisa. Portanto, os autores discutem questões-chaves a serem consideradas na elaboração de um delineamento de pesquisa satisfatório. A primeira clareza que o pesquisador deve ter, diz respeito às perguntas e hipóteses de pesquisa, considerando quais as contribuições destas para a literatura científica. Também é essencial a definição e distinção das variáveis dependentes e independentes, a partir da natureza da pergunta de pesquisa e de como a literatura aponta a relação das variáveis escolhidas. Também é preciso optar pelo uso de medidas válidas e fidedignas da variável dependente, ou seja, medidas que sejam confiáveis e consistentes, visando o aumento da validade interna. Infelizmente, muitas vezes a escolha da medida é baseada em fatores pouco científicos, como por exemplo, o nome da escala ou sua popularidade, levando ao uso de medidas inadequadas aos objetivos da pesquisa.

Para utilizar medidas válidas é importante considerar as evidências de validade de construto obtidas a partir da utilização de um instrumento de medida. Considerando a crise se replicação sofrida pela psicologia, práticas metodológicas e estatísticas utilizadas nas pesquisas da área se tornaram novos objetos de pesquisa nos últimos anos. No entanto, a confiabilidade das mensurações não ganhou destaque nessa agenda de pesquisa. Esta crítica foi realizada por Flake, Pek e Hehman (2017), uma vez que grande parte dos objetos da psicologia são construtos latentes e, portanto, necessitam de instrumentos para acessá-los. Dessa forma, para os autores, uma atenção especial deve ser atribuída à validação de construto – processo que reune evidências para apoiar o significado de um resultado quantitativo obtido a partir do uso de um instrumento de medida. É importante ter em mente que se o número não refletir adequadamente o construto que se pretende mensurar, também não será possível confiar nos resultados obtidos. Portanto, a validade de construto é um tópico importante, que deve ganhar mais atenção, considerando o atual cenário da psicologia.

Flake, Pek e Hehman (2017) questionam em que medida os pesquisadores estão utilizando uma metodologia rigorosa para validação de construtos. Objetivando encontrar respostas para esta questão, realizaram uma revisão de uma amostra aleatória de 30% dos artigos publicados no Journal of Personality and Social Psychology no ano de 2014.

Os resultados encontrados são preocupantes, uma vez que denunciaram o pouco rigor empregado em relação ao relato das informações psicométricas. Em especial, foi identificado que com relativa frequência não eram relatadas quaisquer informações psicométricas sobre novas escalas desenvolvidas nos estudos revisados. Além disso, parte das pesquisas que utilizaram escalas pré-existentes, realizaram alterações nestas escalas, mas não indicaram novas evidências de validade. Diante desse cenário, os autores chamaram a atenção para a necessidade de um processo contínuo de validação dos instrumentos de medida de construtos psicológicos, uma vez que não é possível assumir que os resultados de estudos anteriores se estendem para os demais. Dessa forma, deve-se buscar evidência de validade a cada novo contexto ou população em que o instrumento for utilizado. Os instrumentos de medida possuem uma “sensibilidade contextual” que podem influenciá-los.

Outro resultado de pesquisa que chama atenção é o fato parte das pesquisas terem utilizado escalas com apenas um item, apesar de tradicionalmente não se recomendar o uso de escalas com uma quantidade muito pequena de itens. Os autores reforçam a necessidade de haver fortes evidências que respaldem tal escolha e indiquem a capacidade dos itens da escala de abarcarem a amplitude do construto a qual se propõem mensurar.

Como se pode concluir, muitos construtos carecem de validação apropriada, o que pode levar a resultados duvidosos do estudo e, por sua vez, dificuldades de replicação. Se você não quer que isso aconteça com a sua pesquisa, uma dica é seguir algumas das recomendações tecidas por Flake, Pek e Hehman (2017):

  1. Identificar a validade da medida como um pré-requisito para interpretar os resultados de uma pesquisa;
  2. Incorporar a validação contínua da medida, bem como o seu relato;
  3. Considerar a representação e a relevância do construto ao escolher os itens do instrumento que se propõe a medi-lo.

Além disso, podem ser encontradas mais recomendações em The Standards of Educational and Psychological Testing (2014) para a realização de uma validação adequada dos construtos psicológicos. Tais recomendações foram categorizadas em três fases (substantiva, estrutal e externa), conforme proposto por Loevinger (1957). A fase substantiva compreende os fundamentos teóricos de uma medida, identificando as dimensões que compõe um construto. Na fase estrutural, examina-se as propriedades psicométricas da medida. Por fim, na fase externa, são coletadas evidências da relação do construto investigado com os demais.

 

Referências

Flake, J. K., Pek, J., & Hehman, E. (2017). Construct validation in social and personality research: Current practice and recommendations. Social Psychological and Personality Science, 8(4), 370-378.

Loevinger, J. (1957). Objective tests as instruments of psychological theory. Psychological Reports, 3, 635–694.

Savla, J., & Loewenstein, D. L. (2015). Statistics is not a substitute for solid experimental methodology and design. In L. Gitlin & S. Czaja (Eds.), Behavioral intervention research: Designing, evaluating, and implementing (pp.  303-­316). New York: Springer.

A construção do modelo de pesquisa

By | Uncategorized | No Comments

Freddy Enrique Ramos Guimarães – freddy.ramos82@gmail.com

Mestrando no Programa de Pós-Graduação em Educação Física, Universidade de Brasília

Ensaio desenvolvido na disciplina Delineamentos de Pesquisa em 2019/2 – Prof. Fabio Iglesias

No início a elaboração do projeto de uma pesquisa científica é difícil e, muitas vezes, uma tarefa árdua; principalmente para os alunos pesquisadores iniciantes. Mas esse contexto pode ser modificado, tornando a experiência inicial mais agradável, a partir da construção de um modelo visual do seu objeto de pesquisa. O texto abaixo descreve uma abordagem simples e didática de como construir um modelo visual, dando um ponta-pé inicial na elaboração do projeto de pesquisa.

O livro Creating Models in Psychological Research de Olivier Mesly recomenda a adoção de uma abordagem multimétodo, responsável por desenvolver uma visão ampla e multinível do objeto de pesquisa, em detrimento de uma abordagem unilateral.

Inicialmente, o pesquisador deve adotar algumas regras básicas para a construção do seu modelo de pesquisa, são elas: assumir uma “postura” adequada e buscar a multidisciplinaridade.

A “postura” adequada – atitude do pesquisador, pode ser construída em três passos simples. Primeiro: ele deve se conhecer – saber o que lhe motiva, evitando futuro desânimo e tédio decorrente de novas motivações que poderão surgir durante a pesquisa; segundo: identificar os seus preconceitos/vieses, através de uma auto etnografia, para fugir de esquemas conceituais; e terceiro: o tópico escolhido pelo pesquisador deve gerar ação, a qual deve ancorar-se em um contexto particular.

Buscar a multidisciplinaridade tem função de expandir os interesses em direções opostas, obter o máximo de informações possíveis a respeito do seu objeto de estudo através das pesquisas em múltiplas disciplinas. Após esse start inicial, o pesquisador estará pronto para restringir o seu foco para esferas mais específicas do seu objeto de interesse.

Uma vez determinado seu tópico de pesquisa, o pesquisador deve iniciar a construção do seu modelo (do mais simples para o mais complexo) e justificá-lo por meio dos textos científicos anteriores; pois, o mesmo será a ferramenta principal para a construção do projeto de pesquisa.

O modelo é construído a partir de estruturas específicas que servem para identificar o objeto principal do estudo através de componentes que constituem esse objeto, componentes gerados pelo objeto de estudo e as variáveis observáveis do objeto e de seus componentes. Estas estruturas podem ser chamadas de bolhas, setas e retângulos, onde cada uma possui sua função específica, descritas a seguir.

Bolhas são para as construções, setas são para os laços entre as bolhas e os retângulos servem para destacar as variáveis observáveis – que podem ser medidas. Sendo assim, a bolha principal representa o tópico chave do pesquisador, a qual dois tipos de setas irão apontar ou espalhar.

Primeiro, são as setas constituintes estruturais e funcionais, classificadas como binárias e/ou contínuas, e não estão sujeitas ao tempo. O segundo tipo de seta é chamado de consequente e sofre influência temporal.

As setas constituintes estruturais são aquelas que apontam para a bolha principal, elas devem partir de bolhas estruturais que formam o objeto principal do estudo. As setas estruturais podem representar uma medida binária (sim ou não; presente ou ausente) ou podem representar uma escala contínua (do “nada” ao “completamente”), ou seja, uma medida de intensidade. Observe o exemplo abaixo:

 

 

 

As setas constituintes funcionais, diferentemente das estruturais, são uma expressão do objeto principal e se espalham a partir deste, apontando para bolhas funcionais; conforme o exemplo a seguir:

 

 

Portanto, o pesquisador necessita identificar as variáveis estruturais e funcionais para definir seu objeto de estudo por completo

Há também, conforme comentado anteriormente, as setas consequentes que sofrem influência temporal. Como regra geral, o fator tempo se desloca da esquerda para a direita. Portanto, as bolhas da direita (variável dependente) sofrem influência do tempo. Observe que no exemplo abaixo as bolhas obedecem a uma sequência lógica de acontecimentos influenciados pelo tempo.

Após a definição das variáveis estruturais e funcionais, o pesquisador deve ser capaz de definir um objeto pelo que é e pelo que não é, tendo o objetivo de delinear a área de sua investigação. Para realizar essa definição o pesquisador deve observar “observáveis” (um fenômeno que pode ver, ouvir, tocar, que se movimenta…); ou seja, observar expressões comportamentais, não sensíveis ao tempo em relação à construção a que se referem, de bolhas estruturais ou funcionais.

Os retângulos são uma forma de representar, graficamente, as variáveis observáveis. Recomenda-se um mínimo de três observáveis por bolha. Caso seja encontrado uma discordância entre dois observáveis sobre como permitem inferir o objeto de estudo, o terceiro será utilizado para o desempate. Portanto, os “observáveis” devem ser significativos e mensuráveis; uma vez determinado essas variáveis, o pesquisador pode criar questionários qualitativos e quantitativos.

Este meio de extrair observáveis, a partir dos objetos de estudo e de suas variáveis funcionais e estruturais, é um método conhecido como percolação de dados, a qual, reúne diversas atividades simultaneamente; tais como: o pensar, a construção de diversas etapas e uma maneira de analisar fenômenos.

Ao final da extração de dados, o modelo que antes era muito simples, tornou-se muito complexo, porém fácil de expressar e pesquisar devido a clareza com que foi construído.

 

Contudo, para tornar o processo de pesquisa agradável, o objeto a ser pesquisado deverá ser algo valioso, tanto para o pesquisador quanto para a população em geral; a partir desse ponto inicial a utilização de setas, bolhas e a identificação das variáveis retangulares facilitarão a montagem do modelo visual, tornando o objeto de pesquisa claro e de fácil explicação.

 

Referência

Mesly, O. (2015). Creating models in psychological research. New York: Springer.

Relações causais e representações gráficas

By | Uncategorized | No Comments

Lesley Diana de Sousa – lesley@unirv.edu.br

Doutoranda do Programa de Pós-Graduação em Ciências do Comportamento, Universidade de Brasília

Professora do Depto. de Psicologia da Universidade de Rio Verde (GO)

Ensaio desenvolvido na disciplina Delineamentos de Pesquisa em 2019/2 – Prof. Fabio Iglesias

O economista e filósofo Henry Sidwick afirmou que John Stuart Mill (1806-1973) governou a Inglaterra como poucos homens já haviam realizado e que dificilmente existiriam outros como ele (Collini, 1991). Mas como Mill poderia exercer tal poder se nunca foi Rei? É possível influenciar e governar as pessoas mesmo não lhe sendo conferida autoridade legítima? No caso de Mill, Sim. Por meio de suas teorias e métodos, Mill foi considerado um grande influenciador na forma do pensamento e do discurso político. Suas obras incluem textos de economia, filosofia social e política, metafísica, ética, religião, lógica, epistemologia e outras questões de relevância pública para a época e para os dias atuais.

Diante da grande relevância histórica do pensamento de Mill, o presente ensaio inicialmente abordará os métodos propostos por ele para investigar a relação de causa e efeito entre os fenômenos da natureza. Em seguida serão apresentados brevemente os aspectos da representação gráfica dos conceitos metodológicos, pelo fato de também serem um meio de identificar relações entre os fenômenos. Ambas as temáticas serão discutidas com base no livro Research Methodology in the Social, Behavioral and Life Siences, de Adèr e Melhenberg (2000).

Em uma de suas principais obras, A System of Logic, de 1843, foram apresentados os agora conhecidos ‘métodos de Mill’. Trata-se dos fundamentos e princípios do raciocínio indutivo e de sua relevância para a construção do conhecimento científico. Segundo Àder e Melherbergh (2000), o raciocínio indutivo se baseia na ideia de regularidade entre os fenômenos da natureza, partindo do pressuposto que ela é regida por leis e, portanto, é possível realizar previsões. As previsões são cabíveis ao passo que inferimos que o futuro será como o passado. Tal inferência pode ser considerada uma generalização da uniformidade da natureza, que ocorre em função de generalizações menores realizadas anteriormente e da ideia de que fatos conhecidos se assemelham a fatos desconhecidos. Desta forma, um conjunto de regularidades da natureza poderia ser inferida de maneira dedutiva, por meio de quatro métodos adequados.

Quatro métodos para identificar causalidade

O primeiro método, da concordância, assume que se em diversas situações os fenômenos investigados possuírem apenas um elemento em comum, ele possivelmente será a causa do fenômeno. Já no segundo método, da diferença, observa-se que se o efeito é presente em uma circunstância, mas não é em outra, e a primeira diferir da segunda em apenas um elemento, ele pode ser considerado causa, ou parte da causa do fenômeno. Esses dois primeiros métodos são considerados métodos de eliminação, pois no método da concordância se um elemento pode ser eliminado então não pode ser considerado como parte do fenômeno. No método da diferença se um elemento não pode ser eliminado, então ele é considerado como pertencente ao fenômeno. O terceiro método, dos resíduos, estabelece que ao subtrair a soma dos efeitos para o total dos fenômenos, exceto um, pode-se atribuir a causa do fenômeno ao elemento remanescente. Por fim, o quarto método, da variação concomitante afirma que, se ao produzir uma variação em um fenômeno específico também houver variação em outros fenômenos, as variações são ao menos parcialmente causa ou efeito uma da outra.

Representações gráficas

Após a apresentação dos métodos de Mill, percebe-se que a compreensão da lógica indutiva se faz relevante para o estudo e ampliação do conhecimento científico, pois por meio dela é possível estabelecer relação de causa e efeito e realizar previsões acerca dos fenômenos. Mas outra forma de buscar identificar as relações existentes entre os fenômenos é por meio da representação visual dos seus conceitos metodológicos. A representação não tem o objetivo principal de identificar causa e efeito dos fenômenos, mas de oferecer um conjunto de informações que se relacionam com o fenômeno, para que então possam ser traçados métodos de investigação para acessar a relação de causa e efeito.

Existem, no entanto, inúmeros métodos de representações gráficas para descrever os conceitos metodológicos. O presente ensaio não tem o objetivo de descrever passo a passo cada modelo, mas proporcionar ao leitor um contato inicial com a temática, bem como elucidar acerca de alguns aspectos relacionados à representação de maneira geral. Tais aspectos se referem: 1) ao que é a representação; 2) à relevância e aos benefícios de representar os conceitos metodológicos de maneira formal; 3) aos critérios que uma representação gráfica deve atender; e 4) a como e quando usar a representação gráfica.

Para os autores, o conceito de representação pode ser compreendido similarmente ao conceito de representação utilizada na inteligência artificial, como modo de apresentar o conhecimento dos especialistas em um domínio específico. A representação gráfica pode ser utilizada como ponto de partida para a elaboração do delineamento de pesquisa, pois por meio dela é possível acessar quais variáveis estão relacionadas ao objeto de estudo em questão. Permite a realização da pesquisa com menor número de falhas e ambiguidades, tanto quanto à coleta quanto à análise e interpretação dos resultados.

Durante a elaboração da representação gráfica é necessário se atentar aos critérios básicos para uma boa representação: reconhecimento; descrições aproximadas; manipulação de informações complexas; adaptabilidade; estratégia; inferência lógica; noções temporais; e contexto. O critério de reconhecimento estabelece que ao elaborar uma representação gráfica, o pesquisador não deve buscar maneiras inovadoras de descrever o objeto de estudo. Pelo contrário, deve utilizar métodos já existentes e formalizadas, fazendo com que a representação seja familiar para o leitor. O segundo critério, o das descrições aproximadas, nada mais é do que a descrição ser significativa para o leitor ainda que ela não apresente todos os seus detalhes. Para fazer isso, o pesquisador deverá atender também ao critério de manipulação de informações complexas. Ele corresponde à possiblidade de rotular informações de alta complexidade sem a necessidade de requerer a estrutura completa do objeto de estudo. Além disso, as representações devem ser simples, para que possam ser adaptadas para uma área específica, elaborar estratégias de pesquisa e realizar inferências lógicas acerca da relação entre as variáveis.

Em relação aos dois últimos critérios, na noção temporal é essencial para estudar fatores como a variabilidade ou o desenvolvimento do objeto de estudo no decorrer do tempo. Para isso, uma série de métodos estatísticos estão disponíveis, tais como análise de medidas repetidas, análise de tendências, análise longitudinal e análise de dados de sobrevivência, entre outros. Já o critério de contexto deve expressar informações sobre o campo de pesquisa em questão, pois as questões de pesquisa se originam a partir de um campo com elementos específicos e isso influenciará diretamente na maneira de estudar os fenômenos.

Por fim, para saber como e quando utilizar a representação gráfica, é necessário compreender os conceitos de conhecimento declarativo e procedural. O conhecimento declarativo se refere à simples definição de objetos e das relações entre eles, enquanto o procedural engloba as operações que podem ser realizadas a partir das definições do objeto de estudo. O objetivo da representação guiará o pesquisador acerca de qual tipo de conhecimento ele usará. Por exemplo, se a representação abordar conhecimento estratégico, será necessário utilizar o conhecimento procedural ao invés do declarativo.

Agora que já conhece os principais aspectos relacionados à representação, convido você a ampliar o seu conhecimento por meio da leitura do livro Research Methodology in the Social Behavioral and Life Siences, para aprender os diversos tipos de representações gráficas existentes. No que tange à representação, o presente ensaio teve o objetivo apenas de contextualizar a representação de maneira geral que, para você, enquanto pesquisador, tenha um repertório mínimo para selecionar a representação específica levanto em consideração os fatores mais relevantes.

Referências

Adèr, J. H., & Melhenberg, G. (2000). Research methodology in the social, behavioral and life sciences. London: Sage.

Colinni, S. (1991). Public moralists, political thought and intellectual life in Great Britain 1850-1930. Oxford: Clarendon.

Mill, J. S. (2015). A system of logic: Ratiocinative and inductive. New York: Harper & Brothers. (original publicado em 1843).

Método indutivo e método dedutivo: Complementaridade ou contraposição?

By | Uncategorized | No Comments

Sula Maria Cavalcante Vieira – sulacvieira@gmail.com

Mestranda em Psicologia Social, do Trabalho e das Organizações, Universidade de Brasília

Ensaio desenvolvido na disciplina Delineamentos de Pesquisa em 2019/2 – Prof. Fabio Iglesias

 

O que é melhor: método indutivo ou método dedutivo? Essa questão pressupõe uma visão dual de metodologia científica, o que pode gerar discussões não construtivas para o campo da ciência, então melhor posicionando: método indutivo e dedutivo – complementaridade ou contraposição?

O artigo de Edwin Locke “The Case of Inductive Theory Building”, publicado em 2007, tem uma grande base argumentativa sobre o método indutivo ser a melhor alternativa para construção de teorias em ciências sociais, com exemplos de teorias bem sucedidas e sugestões de como conduzir teorias indutivas.

Com abordagem menos dualista, nos capítulos 1 e 2 do livro “Qualitative Inquiry and Research Design: Choosing Among Five Approaches”, John Creswell e Cheryl Poth (2018) descrevem diferentes formas de olhar o mesmo fenômeno de maneira construtiva, abordando variadas perspectivas, teorias e a importância de bases filosóficas. Ambos autores são pesquisadores relevantes em pesquisas que abrangem a metodologia qualitativa e quantitativa (quali-quanti; métodos mistos) e defendem a importância da metodologia indutiva e dedutiva. 

Locke (2007) traça uma linha de raciocínio contemplando desde as ideias dos filósofos mais influentes da antiguidade, até a filosofia contemporânea da ciência, separando cientistas representantes de cada método de forma categórica. Alguns dos representantes do método dedutivo: Platão, Immanuel Kant, David Hume, Karl Popper; do método indutivo: Aristóteles, John Locke (não o próprio Edwin Locke) e Francis Bacon.

De maneira geral, o método dedutivo foi caracterizado por invalidar os sentidos e por definir que a construção do conhecimento se dá do contexto geral para o particular – dedução de conhecimentos futuros a partir de identificações resgatadas da própria mente. Já o método indutivo, caracterizado por validar os sentidos, tem o processo de construção partindo de particulares para o geral – observações detalhadas de processos.

Popper, filósofo moderno, afirmava que o método indutivo era inválido e que teorias científicas precisam ser falseáveis. Já Edwin Locke defende que a ciência não evoluiu com o processo de refutação, mas de descobertas positivas. Como exemplo, o progresso científico de Thomas Edison foi de descobrir o material que funcionou como filamento de lâmpadas, não quando encontrou centenas de materiais que não funcionaram, pois esses só foram úteis para saber que poderiam ser ignorados. Outros exemplos de cientistas que construíram saber a partir do método indutivo foram Charles Darwin e Albert Einstein.

Apesar de defender que o método indutivo é a forma válida de construção de conhecimento, Locke ressalta que a ciência se desenvolve por um processo de descoberta contínua e que as teorias podem se atualizar conforme novas descobertas e observações vão sendo feitas, pois os conceitos têm final aberto.

Para embasar ainda mais a defesa de Locke, são dados três exemplos de teorias indutivas bem sucedidas na percepção dele: a teoria cognitiva da depressão de Beck; a teoria sociocognitiva de Bandura; e a teoria de fixação de objetivos de Edwin Locke e Latham. Todas têm aspectos em comum: a centralidade das ideias (do começo até a conclusão final); aplicabilidade; e se desenvolveram durante um longo período de acumulação e integração não contraditória de evidências. Nenhuma avançou pelo método da falseabilidade.

Seguindo o escopo argumentativo, Edwin Locke descreve diretrizes para o desenvolvimento de boas teorias indutivas, visto que, de acordo com ele, as políticas editoriais não estão promovendo a construção produtiva de teorias. Algumas das diretrizes:

  • Base em axiomas filosóficos válidos: existência (realidade), identidade (tudo tem uma natureza específica), e consciência.
  • Corpo substancial de observações ou dados: variedade de métodos, participantes, tarefas e espaços de tempo.
  • Formulação de conceitos válidos: o objetivo de uma definição é amarrar o conceito à realidade e diferenciá-lo de outros conceitos. Conceitos são abertos, modem se alterar/modificar.
  • Buscar evidência de causalidade: experimentação, leis matemáticas e métodos estatísticos.
  • Integrar conceitos válidos de outras fontes e teorias (quando aplicável): a teoria das metas, por exemplo, incorporou a auto-eficácia da teoria sociocognitiva.
  • Integrar a totalidade das descobertas e conceitos em um todo não contraditório: conclusões devem ser consistentes com todo conhecimento.
  • Identificar o domínio e as condições de limite da teoria: não existe “teoria de tudo”!
  • Processo de construção cuidadoso, meticuloso e gradual.

Para finalizar, Edwin Locke faz observações importantes:

  • Ninguém alcança a certeza. As descobertas são feitas a partir de um processo gradual e fazer deduções de premissas arbitrárias não leva a nada.
  • O processo de construção de teorias não deve estar atrelado à autoestima. As análises dos fatos podem ser prejudicadas, pois as pessoas podem passar mais tempo tentando defender a própria teoria do que buscando modificações e melhorias.

Após a leitura do texto de Edwin Locke, a visualização de método dedutivo versus método indutivo fica explicitamente polarizada, e essa perspectiva de dualidade se dissipa após a leitura do trabalho de Creswell e Poth, pois integram perspectivas filosóficas com estruturas interpretativas diferentes nos Capítulos 1 e 2.

Apesar da pesquisa qualitativa ser o foco do livro, que tem característica bottom-up (partindo da singularidade dos fenômenos) e, consequentemente, de caráter mais indutivo, a articulação das ideias pode ser aplicada em estudos também quantitativos. Isso fica melhor explicitado a partir das estruturas interpretativas que serão comentadas em breve.

Em conformidade com a proposta do título, os autores inicialmente disponibilizam uma tabela ilustrativa que descreve as fases da pesquisa qualitativa. A segunda fase, melhor contemplada aqui, explicita as suposições filosóficas de quem está fazendo a investigação, trazendo a visão de realidade (ontologia), como se sabe da realidade (epistemologia), o posicionamento/valores adotados (axiologia) e os procedimentos usados no estudo (metodologia).

Normalmente essas suposições são aplicadas na pesquisa por meio de paradigmas (conjunto básico de crenças que geram ação) e teorias (encontradas na literatura), teorias e paradigmas são chamados de estruturas interpretativas. Os participantes desses projetos costumam representar grupos marginalizados e invisibilizados de gênero, raça, classe, religião, sexualidade e localização geográfica. As estruturas interpretativas abordadas são: pós-positivismo, construcionismo social, pós-modernas, pragmatismo, teorias feministas, teoria crítica e teoria crítica racial, teoria queer, e teoria das incapacidades.

A perspectiva pós-positivista é lógica, empírica e parte de uma orientação de causa e efeito, enquanto a perspectiva pragmática parte do princípio de “valor de uso”, de resultados. O construcionismo social contempla a subjetividade e propõe debruçamento sobre a visão de mundo dos participantes, e as perspectivas pós-modernas focam em críticas na mudança de pensar. Todas as teorias citadas pelos autores (feministas, crítica, crítica racial, queer e das incapacidades), partem da perspectiva de redução de desigualdades e empoderamento de grupos socialmente discriminados.

Quando se fala em maior integração entre diferentes perspectivas, diminuindo a suposição de dualismo, pode-se pensar como exemplo que teorias feministas, surgidas de maneira dita indutiva, podem ser estudadas de forma empírica em métodos também quantitativos. Pesquisas que adotam o princípio de falseabilidade de Popper podem ter propostas pragmáticas e hipóteses pautadas nas diferentes teorias aqui abordadas.

Enfim, como proposta de reflexão: você tem sido mais integrativo/a ou mais dualista na construção das suas ideias e projetos?

 

Referências

Creswell, J.W., & Poth, C.N. (2018). Qualitative inquiry & research design: Choosing among five approaches. Thousand Oaks: Sage.

Locke, E. A. (2007). The case for inductive theory building. Journal of Management, 33(6), 867-890.

Teoria das janelas quebradas e ordem pública: A polícia ostensiva de volta à sua vocação

By | Uncategorized | No Comments

Isângelo Senna

Doutorando em Psicologia Social, do Trabalho e das Organizações. Pesquisador no Influência.

 

O artigo Broken Windows: The police and neighborhood safety de George L. Kelling e James Q. Wilson foi publicado em 1982 na revista The Atlantic. Fato curioso é que essa revista, hoje com mais de 160 anos, não é um periódico científico. Ainda assim, os argumentos defendidos por Kelling e Wilson são conhecidos pelo epíteto de Teoria das Janelas Quebradas (ou Broken Windows Theory) e, desde então, vem recebendo forte atenção não apenas da comunidade acadêmica, mas principalmente de gestores públicos.

Os autores iniciam o artigo se referindo a uma ação de segurança pública ocorrida na década de 1970 no Estado americano de Nova Jersey. Na ocasião o Estado financiou a implementação de policiamento ostensivo à pé em 28 cidades. Em que pese a resistência para com essa modalidade de policiamento que se encontrava em descrédito, o programa foi levado à frente. Cinco anos depois, estudos empíricos da Police Foundation mostraram que, embora não tenha havido impactos significativos nas taxas criminais, verificaram-se menores escores de medo do crime e melhor avaliação da polícia por parte do público onde o programa foi implementado. Na mesma direção, os policiais do policiamento à pé mostraram posturas mais positivas em relação aos cidadãos do que seus colegas escalados no policiamento em viaturas.

O artigo sugere que as pessoas não estavam enganadas quanto à eficácia do policiamento à pé. Em verdade, tão quanto o crime propriamente dito, a comunidade pesquisada temia ser perturbada por praticantes de comportamentos antissociais e imprevisíveis, como prostitutas, drogaditos e portadores de transtornos mentais. O policiamento à pé permitia que o policial conhecesse quem eram as pessoas que frequentam o bairro e as distinguia dos estranhos ao ambiente. A familiaridade com a área permitia que o policial identificasse, com ajuda do público, tornasse as regras informais estáveis na comunidade. Consequentemente, havia a preservação da ordem.

O texto segue explicitando o que é a Teoria das Janelas Quebradas. Para tanto, os autores recorrem ao experimento realizado por um dos psicólogos sociais mais influentes até os dias de hoje, Philip Zimbardo. O mesmo pesquisador do experimento da prisão de Stanford (Zimbardo, 2011), em 1969 colocou veículos sem placa e com ares de abandono no Bronx (Nova York) e em Palo Alto (California). No primeiro caso, o vandalismo e a destruição do carro ocorreu de forma rápida (10 minutos) e por pessoas ordinárias da comunidade. Já em Palo Alto, bastou uma janela quebrada, para que a integridade do veículo que já durava semanas fosse completamente violada. A partir desse exemplo, Kelling e Wilson passam a argumentar como as desordens físicas geram desordens comportamentais que, por sua vez, levam a crimes e ao medo do crime em qualquer comunidade.

Há também um debate interessante sobre o papel da polícia, algo já tratado em uma obra co-autorada por Wilson sobre as mudanças sofridas pela polícia ao longo da história. De uma agência responsável pela ordem pública, a polícia passou a se ocupar da prevenção de crimes apenas no século XX. Até então, essa era uma atribuição de natureza eminentemente privada. Prevenção criminal, solução de crimes e realização de prisões passaram a ser temas mais afetos à polícia apenas com a explosão de crimes observada a partir da década de 1960. Contudo, segundo os autores, com o passar do tempo a relação da preservação da ordem com a prevenção criminal deixou de ser algo óbvio para a polícia ostensiva.

Em seguida o trabalho aborda as diferentes interações com a comunidade permitidas pelo policiamento à pé e pelo policiamento motorizado. Apenas o primeiro permitiria aos policiais realmente se envolverem com a comunidade por meio de relacionamentos pessoais e efetivos. Inclusive, essa seria a melhor forma da polícia contribuir para a preservação da ordem e para o reforço das regras informais em vigência na comunidade.

Um desafio, entretanto, seria conjugar o papel de mantenedora da ordem com o de agência de law enforcement da polícia. Kelling e Wilson citam que nas duas décadas que antecederam o artigo, a polícia estava experimentando esse novo papel pelo qual ainda não havia passado. No lugar da prisão ser uma medida-meio e excepcional para a preservação ou restabelecimento da ordem em uma determinada comunidade, agora passava a ser um fim em si mesmo. Além disso, a prisão teria passado a existir apenas como forma de se reforçar a importância dos cidadãos cumprirem as leis. Por outro lado, os policiais passaram a ter menos autonomia para impor a ordem,  por não poderem usar medidas restritivas de direito que não estivessem previstas em regras formais e universais. Os efeitos da luta antimanicomial sob o trabalho da polícia é sutilmente citado no texto. A agenda anti-institucionalização teria retirado dos policiais um instrumento importante para o afastamento de ébrios e doentes mentais das ruas. Por outro lado, um ilimitado poder discricionário por parte da polícia poderia ser usado de forma distorcida e causar tensões raciais, por exemplo.

Como vias para a solução da dicotomia entre preservação da ordem e aplicação stricto sensu da lei, os autores sugerem que algumas iniciativas tomassem escala. Um caminho seria a própria comunidade assumir o papel de manutenção da ordem, sem precisar apelar para instrumentos burocráticos e de repressão formal de más condutas. Como exemplo de iniciativas do tipo, o texto cita programas conduzidos por civis voluntários desarmados, como “vigilantes” e “anjos da guarda”.

Os autores sugerem algumas medidas para se enfrentar a queda brusca no número de policiais à época. A contratação de policiais de folga por algumas comunidades poderia gerar resultados mais efetivos do que a contratação de seguranças privados. Outra opção seria policiais, mesmo no patrulhamento motorizado, randomicamente realizarem a fiscalização de posturas em estações de metrô e ônibus. O reforço de regras relativas ao fumo, à ingestão de bebida alcóolica e de condutas antissociais poderia trazer para esses locais o mesmo clima civilizado dos aeroportos, por exemplo.

O último recado dos autores é pelo reforço do papel da polícia frente à preservação da ordem pública. A polícia deve buscar proteger a comunidade da mesma forma que protege o indivíduo. Essa visão deveria ter impacto na formação dos policiais. Porém, à comunidade caberia a tarefa de se manter as janelas intactas ou reparadas.

Algo que precisa ser alertado é o risco da transposição da abordagem em seu sentido literal para contextos que não o dos Estados Unidos ou de países com semelhante perfil cultural, como Canadá, Inglaterra e Austrália. Dois exemplos de encaminhamentos propostos pelos autores fazem parte da realidade brasileira, mas com resultados nefastos para a segurança pública e para a integridade física de seus agentes. O emprego paraestatal de vigilantes civis e ex-militares em locais como Rio de Janeiro pode ser associado à formação de milícias, que hoje em nada se diferem de outros grupos criminosos. Já o trabalho do policial militar na condição de segurança privada no horário de folga, além de carecer de respaldo legal no Brasil, representa grande parte da mortalidade desses agentes por causas externas (Fernandes, 2015; Minayo, Souza & Constantino, 2007).

Em que pese tratar-se bem mais de um ensaio do que de um trabalho acadêmico propriamente dito, o artigo de Kelling e Wilson articula vários trabalhos com experiências empíricas, inclusive com diversos inputs da psicologia social e da psicologia ambiental. Mesmo não explicitando termos como difusão de responsabilidade, ignorância pluralística, apego ao lugar e espaços defensáveis, esses conceitos permeiam todo o trabalho. Isso mostra o quanto a psicologia tem a contribuir para a prevenção criminal e a redução do medo do crime. O mesmo vale para os aportes da sociologia urbana da Escola de Chicago que estão subjacentes nos argumentos dos autores, ainda que não são explicitamente declarados. Um exemplo disso se verifica quando Kelling e Wilson praticamente descrevem o processo invasão-dominação-sucessão (Freitas, 2002), ao relatar as etapas de substituição dos usuários legítimos dos espaços por grupos de delinquentes.

Da leitura do artigo, infere-se que a criminalidade deve ser combatida no nível local e em sua gênese: as pequenas desordens físicas e comportamentais presentes no quotidiano da comunidade, como mostramos em artigo científico recente sobre parques públicos (Senna, Iglesias, & Vasconcelos, aceito). O exemplo mais relevante de aplicação desse princípio foi o programa Tolerância Zero, levado a efeito pela Prefeitura de Nova York. O sucesso desse programa levou a Teoria das Janelas Quebradas e seus próprios autores a alcançar enorme popularidade nos anos 1990 (Bratton & Knobler, 2009). Não há dúvidas que, com as devidas adaptações culturais, os princípios e estratégias em realce no artigo ainda hoje podem gerar insumos para pesquisas e políticas públicas no Brasil.

Referências

Bratton, W. & Knobler, P. (2009). The Turnaround: How America’s top cop reversed the crime epidemic. New York: Random House.

Fernandes, A. (2015). Vitimização policial: Análise das mortes violentas sofridas por integrantes da Polícia Militar do Estado de São Paulo (2013-2014). EAESP-Escola de Administração de Empresas de São Paulo.

Freitas, W. C. P. (2002). Espaço urbano e criminalidade: Lições da Escola de Chicago. São Paulo: IBCCRIM.

Martin, J. P., & Wilson, G. (1969). The police: A study in manpower – The evolution of the service in England and Wales, 1829-1965 (Vol. 24). Londres: Heinemann Educational Publishers.

Minayo, M. C. D. S., Souza, E. R. D., & Constantino, P. (2007). Riscos percebidos e vitimização de policiais civis e militares na (in) segurança pública. Cadernos de Saúde Pública, 23, 2767-2779.

Senna, I., Iglesias, F., & Vasconcelos, A.M.N. (no prelo). Parque público e criminalidade: Preditores ambientais da percepção de (in)segurança. Gerais: Revista Intersinstitucional de Psicologia.

Wilson, J. Q., & Kelling, G. L. (1982). The police and neighbourhood safety: Broken windows. Atlantic Monthly, 3, 29-38. Disponível em https://www.theatlantic.com/magazine/archive/1982/03/broken-windows/304465/

Zimbardo, P. (2012). O efeito Lúcifer: Como as pessoas boas se tornam más. Rio de Janeiro: Record.

Eleições 2018, comportamentos desonestos e tomada de decisão

By | Uncategorized | No Comments

Lude Marieta Neves

Doutoranda em Psicologia Social, do Trabalho e das Organizações. Pesquisadora no Influência.

Encontramo-nos agora no segundo turno do processo eleitoral, em que deputados e senadores foram já eleitos, mas continua a disputa pelos cargos de presidente da República e de governadores em todo o país. O contexto fervilha, portanto, com oportunidades de discussão sobre influência social, persuasão, relação entre intenção comportamental e comportamento de fato, desonestidade e tomada de decisão, para minimamente citar alguns fenômenos típicos de psicologia social.

Esses fenômenos são de fácil identificação. Já examinou como os candidatos a cargos eletivos se comportam durante suas campanhas? Já identificou como gesticulam, como usam a voz, como apresentam sua postura corporal, com quem aparecem nas fotos publicitárias? São todas estratégias de persuasão, semelhantes àquelas utilizadas por vendedores, cujo objetivo é convencer você a efetivar a compra, com a diferença de que o candidato quer se vender ou o seu partido político. A psicologia tem uma forte tradição de pesquisas nesse campo de estudo, interessado em explicar os processos cognitivos e comportamentais envolvidos na tomada de decisão, dada a sua evidente utilidade prática (Cialdini, 2016[1]). 

Outro exemplo fácil de ser compreendido são as pesquisas de intenção de voto. Independente das fontes de informações (com diferentes níveis de confiabilidade e viés), o ser humano é curioso socialmente: quer saber o que se passa na cabeça dos outros para poder chegar às suas próprias conclusões. Estamos falando de influência social, ou seja, processos de grupo que influenciam a cognição e o comportamento individual e grupal. Um desses processos de grupo, denominado conformidade, acontece quando o sujeito adere à norma social percebida, mesmo que ela contraste com sua convicções pessoais e até com estímulos objetivos, como mostram os experimentos clássicos de Solomon Asch[2] (Asch, 1951[3]). No delineamento mais conhecido desses estudos, o participante ingênuo tinha que escolher, entre três linhas, aquela que tinha comprimento idêntico à da linha modelo. No entanto, após ouvir a mesma resposta, evidentemente errada, dos colegas no grupo (todos atores), alguns participantes também escolhiam a linha errada, conformando-se à norma do grupo. É essa tendência que leva, por exemplo, o eleitor a decidir por candidatos que aparentem ter mais chances de eleição, com base nas pesquisas que indicam quais são as intenções de voto na população.

Essa lógica nos leva a refletir em seguida sobre a maneira como é realizado o processo decisório, tão ligado a normas sociais, mas também sobre quão desonesta e enganosa pode ser a estratégia de persuasão adotada para influenciar os eleitores. Normalmente, as pessoas estão pouco interessadas em saber como foram feitas as pesquisas: se por telefone ou presencial, no papel ou no tablet, com perguntas abertas ou fechadas e em qual ordem foram apresentadas. Seu interesse maior se concentra nos resultados, nos gráficos estatísticos, nas tendências e previsões ao longo do tempo e, basicamente, no diagnóstico de como pensa a maioria dos eleitores. Até a bolsa de valores e o dólar variam conforme os resultados dessas pesquisas e as propostas econômicas dos candidatos “mais cotados”. Tendo em vista o poder da elaboração e disseminação da informação e da opinião no cenário político, essa estratégia acaba sendo amplamente explorada pelos candidatos e por seus eleitores para influenciar e persuadir as pessoas e grupos.

A psicologia social mostra que para tomar as nossas decisões nós utilizamos dois sistemas de processamento: um que é mais rápido e automático, por usar atalhos mentais; e um que é mais lento e trabalhoso, por usar o raciocínio consciente (Fiske & Taylor, 2008[4]). Didaticamente, em psicologia, separamos esses dois sistemas, mas na prática eles funcionam o tempo todo coligados e se complementam para conduzir o processo de tomada de decisão. Quando, por exemplo, o eleitor quer saber apenas o resultado “bruto” das pesquisas de intenção de voto, observando os gráficos, está usando predominantemente um atalho para tomar uma decisão mais rápida. Quando, por outro lado, o eleitor quer entender como esses resultados foram obtidos, quem coletou os dados e qual a sua fonte, está predominantemente usando o sistema cognitivo consciente.

Essa explicação nos leva a entender como a desonestidade pode ser empregada na campanha eleitoral. Partindo do pressuposto de que os eleitores estão cansados de ter que escolher a partir de um menu amplo e diversificado de candidatos ao cargos executivos e legislativos, os estrategistas enganosos abusam de informações rápidas, resumidas e atrativas, como as fake news (notícias fabricadas para enganar pessoas) e os memes[5] (imagens com texto curto, geralmente empregando humor, difundidas pela internet) para direcionar a decisão política das massas. O problema tem sido considerado tão sério que há quem chame as eleições 2018 de “Eleições dos memes e fake news[6], e não se trata de um fenômeno apenas brasileiro: as eleições presidenciais nos EUA também enfrentaram problema semelhante.

Finalmente, nesse contexto de insegurança política, aliada a um papel importantíssimo e definitivo das redes sociais, é fundamental alertar-se sobre o conteúdo acessado, consumido e compartilhado. Não significa que o sistema automático é melhor ou pior que o sistema consciente. Significa que, utilizados apropriadamente, ambos auxiliam numa tomada de decisão mais segura e confiante. O Facebook, por exemplo, está disponibilizando dicas rápidas para identificar fake news e conter a onda de desinformação no canal. Esse conteúdo, apresentado em formato de check-list, utiliza a estratégia automática para chamar a atenção de seus usuários e provoca a internalização do comportamento desejado. A iniciativa está sendo divulgada na timeline de seus usuários, tendo em vista que apenas o trabalho de agências de checagem de fatos, como o do Portal de Notícias G1, não está sendo suficiente para reduzir o fenômeno. A quantidade de fake news é desproporcionalmente maior que a quantidade de iniciativas tentando desmenti-las. Em termos psicológicos, o papel do (e-)leitor nesse movimento pode ser o de refletir sobre essas provocações e educar sua rede de contatos virtuais para seguir o caminho da honestidade intelectual e disseminação de conteúdo confiável nas redes sociais.

 

Quer saber mais sobre as modalidades de fake news e as iniciativas internacionais para sua contenção? Acesse o vídeo “Fake News e Manipulação”, disponível em: http://www.futuraplay.org/video/fake-news-e-manipulacao/438910/

[1] Cialdini, R. (2017). Pré-suasão: A influência começa antes mesmo da primeira palavra. Rio de Janeiro: Sextante.

[2] https://www.simplypsychology.org/asch-conformity.html

[3] Asch, S. E. (1951). Effects of group pressure upon the modification and distortion of judgment. In H. Guetzkow (ed.). Groups, leadership and men. Pittsburgh, PA: Carnegie Press.

[4] Fiske, S. T., & Taylor, S. E. (2008). Social cognition: From brains to culture (1st ed.). New York: McGraw-Hill.

[5] Meme é um termo criado em 1976 por Richard Dawkins no seu bestseller “O Gene Egoísta” para se referir à menor unidade de memória coletiva, numa analogia à nossa carga genética.

[6] https://www.huffpostbrasil.com/2018/08/02/meme-e-fake-news-como-a-internet-transforma-a-discussao-politica_a_23491045/

 

Como mensagens podem salvar vidas: Influência social e o tráfico de pessoas

By | Uncategorized | No Comments

Jonathan Jones
Doutorando em Ciências do Comportamento, mestre em Psicologia Social, comunicólogo e publicitário. Pesquisador no Influência

Fabio Iglesias
Doutor em Psicologia, Professor do Departamento de Psicologia Social e do Trabalho, na Universidade de Brasília, onde coordena o Influência

TráficoHumanoA parceria entre ciência e segurança pública gerou uma história retumbante de sucesso. Diversos procedimentos investigativos saíram de artigos científicos e laboratórios universitários, nas mais variadas áreas, diretamente para o dia a dia dos agentes. A psicologia, por exemplo, tem espaço cativo nas forças policiais mais competentes do planeta, “decifrando” a mente dos criminosos e levando ao delineamento de estratégias que assegurem o cumprimento da lei. A literatura científica disponível sugere, por exemplo, que o processo de criar e manter hábitos deve pautar-se em certos pontos-chave. No contexto do combate ao tráfico de pessoas, esse arcabouço empírico pode ser sumarizado na seguinte estratégia: as vítimas precisam saber que a ajuda existe – e que está a pronto alcance.

Assim, primeiramente, é necessário comunicar – e aqui, do começo ao fim, achados e insights das ciências comportamentais podem nos guiar rumo ao jeito mais assertivo de conseguir isso. No tráfico de pessoas, uma campanha triunfante deve partir do pressuposto de que procurar ajuda envolve mudança em dois níveis: na cabeça das pessoas e em seus atos. Isso porque as pesquisas sobre o tema sugerem que vítimas de crimes como esses sequer se enxergam dessa maneira! Um programa de mudança de comportamento deve, portanto, começar daí: as pessoas precisam reconhecer seu status de vítima, identificando quais os sinais desse crime. Pode parecer contra-intuitivo, mas, ao se ver dentro de um cenário extremamente intenso como esse, é comum perder-se na sua complexidade emocional. É por isso que compreender a forma como pensamos pode ser genuinamente valioso.

A psicologia social é a disciplina científica que estuda táticas de influência – acumulando aproximadamente cem anos de conhecimento rigoroso, e com diversos conselhos para dar. A primeira dica, consequentemente, envolve impedir que certos erros simples aconteçam. É preciso, por exemplo, tomar cuidado com o que os pesquisadores chamam de “prova social” – o uso de dados sobre a quantidade de pessoas realizando um determinado comportamento. Divulgar a porcentagem de vítimas de um certo crime pode acabar constituindo um verdadeiro tiro no pé, tornando “natural” a atividade criminosa – e, como efeito colateral, impulsionando sua ocorrência! Sim, é totalmente possível estimular um crime ao tentar preveni-lo!

Obviamente, os anúncios devem também frisar o quanto é fácil, rápido e seguro buscar ajuda. Telefone, endereço eletrônico na Internet e locais de assistência devem ser reconhecidos em um relance. Lembre-se: para ocorrer, o comportamento precisa ser incentivado e facilitado. Além disso, é mais inteligente (em termos de recursos) que as mensagens sejam direcionadas para grupos que se encaixem no perfil típico das vítimas, preferencialmente em áreas de maior risco – ambientes de trânsito frequente de viajantes, como aeroportos, fronteiras e pontos turísticos. Melhor ainda se a ajuda puder ir até a vítima (postos policiais e patrulhamento especializado nesses lugares estratégicos). Por fim, a mensagem deve ser repetida exaustivamente!

A facilidade de acesso à ajuda é essencial para prevenir esse crime. É difícil para a vítima procurar assistência? Qual a credibilidade dos profissionais que a oferecem? Qual a qualidade dessa ajuda? Policiais beneficiam-se, intrinsecamente, de um dos princípios mais poderosos identificados pelos cientistas sociais: o poder de serem autoridades legítimas. Uma série de experimentos assombrosos conduzidos na década de 1950 nos EUA (e, dentro do limite da ética, replicados recentemente) mostraram o quanto as pessoas parecem suscetíveis à influência das autoridades. Estudos recentes também colocaram sob um microscópio o quanto vestir um uniforme aumenta o poder de convencimento de um indivíduo. Finalmente, demonstrar capacidade e profissionalismo ao lidar com a vítima contribui para fortalecer a imagem de autoridade.

Um outro princípio fundamental da psicologia social deve ser considerado na luta contra esse crime. Para aumentar ainda mais a credibilidade dos policiais, podemos usar a nosso favor uma das principais táticas que os próprios traficantes empregam para abordar e recrutar suas vítimas: a empatia. Guarde na memória que, em muitos casos, as ameaças vêm apenas após a vítima ser atraída para a armadilha através de amabilidade e promessas. Novamente, a psicologia tem ensinamentos formidáveis sobre quais as características que uma pessoa precisa ter para ser mais confiável. A aparência, a forma de se vestir, toques e, principalmente, as palavras, têm um papel de destaque nessa dinâmica. Policiais, assim como vendedores, precisam dominar a ciência da simpatia!OlhaaFacaA psicologia social revelou-se um aliado impressionante no combate a um número de crimes, como o tráfico de pessoas. Os estudos mostram que o comportamento de procurar ajuda, por parte das vítimas, pode ser incentivado por meio de uma abordagem que envolva comunicar, de maneira crível e convincente, a existência da ajuda. Tornar a assistência acessível, amigável e segura é a etapa seguinte. Combinados, os dois caminhos abrem espaço para que esse crime possa ser finalmente enfrentado de uma perspectiva efetivamente científica.

 

A psicologia social do ‘Baleia Azul’

By | Uncategorized | No Comments

Angélica Oliveira
Mestranda em Psicologia Social, do Trabalho e das Organizações na Universidade de Brasília e pesquisadora do Influência

Jonathan Jones
Doutorando em Ciências do Comportamento na Universidade de Brasília e pesquisador do Influência

Raquel Hoersting
Ph.D. em Psicologia Clínica, Associate Director of Clinical Experience na University of Prince Edward Island (Canadá) e pesquisadora associada do Influência

A partir de 2016, mais uma ameaça digital passou a tirar o sono dos pais. Era o jogo Baleia Azul, que consistia em uma série de desafios que culminaria com o suicídio do participante. Para a psicologia social, a disciplina científica que estuda como influenciamos e somos influenciados, o Baleia Azul aproveitaria-se, de forma engenhosa, de tendências existentes nas pessoas para atraí-las e mantê-las no jogo. Um dos maiores estudiosos dessa área é Robert B. Cialdini, professor emérito de Psicologia da Universidade do Estado do Arizona (EUA), que identificou diversos princípios psicológicos ligados à mudança comportamental de indivíduos. Dois deles podem ser encontrados nas tarefas do Baleia Azul e parecem desempenhar um papel-chave na dinâmica do jogo.

blue-whale-gameO primeiro deles é o “princípio da consistência”, um motivador central do comportamento humano e provavelmente a principal força por trás do jogo. Ao introduzir previsibilidade no relacionamento entre os seres sociais, a consistência é chave para facilitar a convivência entre estes. O enorme poder exercido por essa tendência explica, por exemplo, o desconforto mental provocado pela coexistência de duas crenças ou pensamentos contraditórios na mente do indivíduo, fenômeno que a psicologia nomeia de “dissonância cognitiva”.

No Baleia Azul, o comprometimento é o gatilho que ativa a consistência. O truque do jogo é começar com pedidos iniciais pequenos, como assistir a filmes de terror durante a madrugada. Ao realizar essas tarefas iniciais mais simples, a armadilha do comprometimento é ativada, estimulando o participante a cumprir os desafios seguintes. Ou seja: ao comprometer-se com a tarefa inicial, cria-se uma tendência automática para que o jogador aja de forma consistente e conclua os demais desafios. Esse é um fenômeno simples, mas bastante poderoso, conhecido pela psicologia social como “pé-na-porta” (Freedman & Fraser, 1966). Fora do Baleia Azul, esse mesmo mecanismo tem usos muito menos sinistros, tendo sido utilizado para aumentar o número de doadores de sangue e ajudar as pessoas a pararem de fumar.

A “prova social” é outra tendência que ajuda a explicar o impacto persuasivo do Baleia Azul nos jovens, estando bastante associado a casos de suicídio. De acordo com esse princípio, o indivíduo comum está mais propenso a consentir com um pedido se ele for coerente com o que os seus semelhantes parecem pensar. Essa é a força por trás do chamado “efeito Werther” (Phillips, 1974), de acordo com o qual um suicídio ostensivamente noticiado pela mídia pode tornar-se contagioso, encorajando cópias. O conceito de prova social foi utilizado para se tentar compreender as causas do suicídio coletivo dos membros da seita Templo dos Povos, na Guiana em 1978 (Cialdini, 2006). Comandados pelo reverendo Jim Jones, 918 de seus seguidores envenenaram-se, a maioria de livre e espontânea vontade. Como explicar isso? Isolados em uma floresta tropical, toda a prova social existente indicava que as ordens do líder religioso deveriam ser cumpridas à risca, e assim aconteceu.

No Baleia Azul, a prova social está presente em vários aspectos do jogo. O intenso contato com o tema, via reportagens, compartilhamentos nas redes sociais e conversas com amigos, criam o sentimento generalizado de que esse comportamento é comum e natural – diminuindo a sensibilidade das pessoas ao tema, normalizando o Baleia Azul e até mesmo gerando empatia pelo jogo – um fenômeno que a psicologia conhece e tem estudado por pelo menos 50 anos. Além de tudo isso, convivência contínua com o assunto pode aumentar a curiosidade e o interesse por ele.

A prova social também pode ser identificada em diversas fases do jogo onde a pessoa deve encontrar-se com outros participantes do Baleia Azul. Ter contato com outros indivíduos parecidos com você mesmo, vivendo circunstância parecidas, é uma maneira de validar a própria conduta, o que pode ser ainda mais potente em jovens depressivos e solitários, o perfil típico do jogador do Baleia Azul. Por estarem distantes socialmente, essas pessoas possuem poucas referências de qual o melhor comportamento a ser adotado – e acabam tomando como exemplo o que pensam outros jogadores, em uma espiral catastrófica.

Sabendo que os princípios apelam a tendências humanas universais, como resistir? Os estudos sobre consistência e prova social mostram que prevenir é ainda o caminho mais efetivo. Impedir que os filhos sequer comecem a jogar o Baleia Azul é a medida fundamental que cabe aos pais. Para tanto, é necessário ser cauteloso antes de concordar com pedidos, por mais triviais que possam parecer.

Já a prova social pode ser propositalmente manipulada para criar um ambiente saudável. As amizades constituem um indicativo muito claro de qual é o comportamento esperado entre crianças e adolescentes. Cercar-se de influências positivas, em um ambiente de respeito mútuo, é definitivamente a melhor defesa contra a evidência social negativa.

Referências

Cialdini, R. B. (2006). Influence: Science and practice. Boston: Allyn & Bacon.

Freedman, J. L., & Fraser, S. C. (1966). Compliance without pressure: The foot-in-the-door technique. Journal of Personality and Social Psychology, 4(2), 195-202.

Phillips, D. P. (1974). The influence of suggestion on suicide: Substantive and theoretical implications of the Werther effect. American Sociological Review, 39(3), 340-354.