Em formação

Como fazer uma análise comparativa entre os robôs tomadores de decisão e os humanos?

Como fazer uma análise comparativa entre os robôs tomadores de decisão e os humanos?

Tenho o desafio de encontrar uma maneira de modelar, desenvolver, validar e implementar uma arquitetura cognitiva artificial para robôs móveis em ambiente industrial. No meu presente escopo das questões é estabelecer um método para avaliar o nível de "inteligência" desses robôs, ou gerações de robôs virtuais ou físicos, a partir de uma comparação com a "inteligência" de humanos e outros animais.


Entre & # 8220Paralysis by Analysis & # 8221 and & # 8220Extinction by Instinct & # 8221

5 artigos gratuitos por mês, $ 6,95 / artigo depois disso, boletim informativo gratuito.

Se inscrever

Conteúdo digital ilimitado, revista trimestral, boletim informativo gratuito, arquivo completo.

Eu venho de um ambiente onde, se você vir uma cobra, você a mata. Na GM, se você vir uma cobra, a primeira coisa a fazer é contratar um consultor em cobras. Então você forma um comitê sobre cobras e discute o assunto por alguns anos. O curso de ação mais provável é & # x2014 nada. Você acha que a cobra ainda não mordeu ninguém, então apenas a deixa rastejar pelo chão da fábrica. & # X201D & # x2014 Ross Perot1

Com o passar do tempo, as fórmulas de gerenciamento antigas se tornam obsoletas e são substituídas por novas, mas a mensagem subjacente geralmente é a mesma: a análise formal & # x2014 o estudo sistemático de questões & # x2014 pode ajudar as organizações a tomar melhores decisões. Esta hipótese aparentemente plausível é apoiada por uma extensa literatura em psicologia cognitiva que mostra de forma convincente que o julgamento humano sem ajuda é frequentemente falho.2 Por exemplo, as pessoas parecem ser indevidamente influenciadas por eventos recentes ou vívidos, subestimam consistentemente o papel do acaso e são frequentemente culpado de & # x201Pensamento desejoso. & # x201D As técnicas analíticas formais são uma forma de evitar esses problemas.

No entanto, a abordagem & # x201Crational & # x201D também teve alguns detratores influentes.3 Por exemplo, Peters e Waterman condenam a análise formal por sua tendência para respostas negativas, seu grau de abstração da realidade, sua incapacidade de lidar adequadamente com valores não quantificáveis, sua inflexibilidade e preconceito contra a experimentação e, finalmente, sua tendência a levar à paralisia. Na verdade, a maioria de nós está familiarizada com & # x201Cparalysis by analysis. & # X201D4 Se não a experimentamos em nosso próprio ambiente de trabalho, certamente a vimos no desfile interminável de estudos, investigações, artigos e relatórios de todos formas, tamanhos e cores emergentes de agências governamentais. E, como mostra a citação de abertura, as grandes empresas privadas também são um terreno fértil para esta doença.

Assim, os gerentes precisam navegar entre dois extremos mortais: por um lado, decisões mal concebidas e arbitrárias feitas sem estudo e reflexão sistemáticos (& # x201 Extinção por instinto & # x201D) e, por outro, um recuo para a abstração e conservadorismo que depende obsessivamente em números, análises e relatórios (& # x201Cparalysis by analysis & # x201D). Mas por que algumas organizações ficam atoladas em análises? Por que certas decisões são analisadas de forma insuficiente? Como a racionalidade e a eficiência podem ser combinadas? Essas são as questões que exploro neste artigo.

Leia o artigo completo

Tópicos

Sobre o autor

Ann Langley é professora do departamento de ciência administrativa, Universit & # 233 du Qu & # 233bec & # 224 Montr & # 233al.

Referências

1. R. Perot, & # x201CO sistema GM é como um cobertor de névoa & # x201D Fortuna, 15 de fevereiro de 1988, pp. 48 & # x201349.

D. Kahneman, P. Slovik e A. Tversky, Julgamento sob Incerteza: Heurísticas e Vieses (Cambridge, Inglaterra: Cambridge University Press, 1982)

R.M. Hogarth, Julgamento e escolha: a psicologia da decisão (Chichester, England: Wiley, 1980) e

R. Nisbett e L. Ross, Inferência Humana: Estratégias e Fracasso do Julgamento Social (Englewood Cliffs, New Jersey: Prentice-Hall, 1980).

3. Veja, por exemplo, H. Mintzberg, Mintzberg on Management (Nova York: Free Press, 1989)

R.T. Pascale e A.G. Athos, A Arte da Administração Japonesa (Nova York: Warner Books, 1981) e

T.J. Peters e R.H. Waterman, Em busca da excelência (Nova York: Harper & amp Row, 1982).

4. As expressões foram emprestadas de:

F.E. Kast e J.E. Rosenzweig, Organização e Gestão: Uma Abordagem de Sistemas (Nova York: McGraw-Hill, 1970).

5. Para mais detalhes, veja:

A. Langley, & # x201CIn Search of Rationality: The Purposes behind the Use of Formal Analysis in Organizations, & # x201D Administrative Science Quarterly 34 (1989): 598 & # x2013631.

6. EM. Feldman e J.G. Março, & # x201CInformation in Organizations as Signal and Symbol, & # x201D Administrative Science Quarterly 26 (1981): 171 & # x2013186

J. Pfeffer, Gerenciando com Poder (Boston, Massachusetts: Harvard Business School Press, 1992)

º. Davenport, R.G. Eccles e L. Prusak, & # x201CInformation Politics, & # x201D Sloan Management Review, Outono de 1992, pp. 53 & # x201365 e

M. Feldman, Pedido sem projeto: produção de informações e formulação de políticas (Stanford, Califórnia: Stanford University Press, 1989).

7. Minhas hipóteses sobre os papéis de participação e poder são apoiadas pela literatura clássica que relaciona o tamanho organizacional com a formalização. Organizações menores são mais centralizadas do que as maiores e, portanto, a tomada de decisões tende a ser muito informal. Ver:

D. Pugh, D. Hickson e C. Hinings, & # x201CAn Empirical Taxonomy of Structures of Work Organizations, & # x201D Administrative Science Quarterly 14 (1969): 115 & # x2013126.

8. Esta declaração é talvez mais controversa do que as anteriores. Alguns autores argumentaram que a análise formal é mais aplicável a situações em que há pouca incerteza ou conflito. Veja, por exemplo: J.W. Dean e M.P. Sharfman, & # x201CProcedural Rationality in the Strategic-Decision Making Process, & # x201D Journal of Management Studies 30 (1993): 587 & # x2013610.

Meus dados sugerem que o conflito e a incerteza fazem com que as pessoas gerem mais análises, embora essa análise às vezes possa ter efeito limitado sobre as decisões. Ver:

J.G. Março e H.A. Simon, Organizações (Nova York: Wiley, 1958) e

9. Veja K. Eisenhardt, & # x201CMaking Fast Strategic Decisions in High-Velocity Environments, & # x201D Academy of Management Journal 32 (1989): 543 & # x2013576.

D. Robey e W. Taggart, & # x201CMeasuring Managers & # x2019 Minds: The Assessment of Style in Human Information Processing, & # x201D Academy of Management Review 6 (1981): 375 & # x2013383.

11. Veja, por exemplo, Nisbett e Ross (1980).

12. J.L. Bower, Gerenciando o processo de alocação de recursos (Homewood, Illinois: Irwin, 1970)

R. Burgelman, & # x201CA Process Model of Internal Corporate Venturing in the Diversified Major Firm, & # x201D Administrative Science Quarterly 28 (1983): 223 & # x2013244 e

J.W. Reitor, Decidindo Inovar (Cambridge, Massachusetts: Ballinger, 1987).

13. Para uma visão interessante sobre o papel estratégico da média gerência, consulte:

S.W. Floyd e B. Woolridge, & # x201CDinosaurs or Dynamics? Reconhecendo o Papel Estratégico da Gerência Média & # x2019s & # x201D O executivo 8 (1994): 47 & # x201357.

14. Ver, por exemplo, A. Taylor III, & # x201CCan GM Remodel Itself? & # X201D Fortuna, 13 de janeiro de 1992, pp. 26 & # x201334

K. Kenwin, J.B. Treece e D. Woodruff, & # x201CCan Jack Smith Fix GM? & # X201D Semana de negócios, 1 de novembro de 1993, pp. 126 & # x2013131

J.W. Verity, T. Peterson, D. Depke e E.I. Schwartz, & # x201CThe New IBM, & # x201D Semana de negócios, 16 de dezembro de 1991, pp. 112 & # x2013118 e

T.J. Peters, & # x201CPrometheus Barely Unbound, & # x201D O executivo 4 (1990): 70 & # x201384.

15. B. Dumaine, & # x201C Os destruidores de burocracia, & # x201D Fortuna, 17 de junho de 1991, pp. 36 & # x201350 e

R.H. Howard, & # x201CO CEO como Arquiteto Organizacional: uma entrevista com a Xerox & # x2019s Paul Allaire & # x201D Harvard Business Review, Setembro & # x2013Outubro de 1992, pp. 106 & # x2013119.

16. LIBRA. Barnes e M.P. Kriger, & # x201Co lado oculto da liderança organizacional, & # x201D Sloan Management Review, Outono de 1986, pp. 15 & # x201325 Eisenhardt (1989) e

D.C. Wilson, & # x201CElectricity and Resistance: A Case Study of Innovation and Politics, & # x201D Estudos de Organização 3 (1982): 119 & # x2013140.

17. Para comentários semelhantes, consulte:

E. Jacques, & # x201CIn Praise of Hierarchy, & # x201D Harvard Business Review, Janeiro & # x2013Fevereiro de 1990, pp. 127 & # x2013133 e

L. Hirschhorn e T. Gilmore, & # x201CThe New Boundaries of the & # x2018Boundaryless & # x2019 Company, & # x201D Harvard Business Review, Maio & # x2013junho de 1992, pp. 104 & # x2013115.

19. A. Taylor III, & # x201CA U.S.-Style Shake-up na Honda, & # x201D Fortuna, 30 de dezembro de 1991, pp. 115 & # x2013120.

20. R.L. Daft, R.H. Lengel e L.K. Trevino, & # x201CMessage Equivocality, Media Selection, and Manager Performance: Implications for Information Systems, & # x201D MIS Quarterly 11 (1987): 355 & # x2013366.

21. I.I. Mitroff, J.R. Emshoff e R.H. Kilmann, & # x201CAssumptional Analysis: A Methodology for Strategic Problem Solving, & # x201D Ciência de Gestão 25 (1979): 583 & # x2013593.

Para uma metodologia um pouco diferente, consulte:

P. Checkland e J. Scholes, Metodologia de Sistemas Soft em Ação(Chichester, Inglaterra: Wiley, 1990).

22. Veja B.M. Baixo, Manual de liderança de Stogdill & # x2019s (Nova York: Free Press, 1981).

23. Veja Eisenhardt (1989).

24. Barnes e Kriger (1986).

25. O termo & # x201Cdecision vacuum & # x201D foi inspirado por R.G. Corwin e K.S. Louis, & # x201COrganizational Barriers to the Utilization of Research, & # x201DAdministrative Science Quarterly 27 (1982): 623 & # x2013640. Esses autores descrevem como a pesquisa de avaliação do setor público é freqüentemente ignorada porque cai em um & # x201C vácuo de política & # x201D, onde não há um patrocinador claramente identificável que possa precisar dela.

26. K.H. Hammonds e G. DeGeorge, & # x201COnde eles deram errado? & # X201D Semana de negócios (edição especial sobre gestão de qualidade), 1991, pp. 34 & # x201338.

27. J. Hudiberg, & # x201CQuality Fever at Florida Power & # x201D inserção em J. Main, & # x201CIs the Baldridge Overblown? & # X201D Fortuna, 1 de julho de 1991, pp. 62 & # x201365.

28. D. Greising, & # x201CSelling a Bright Idea & # x2014 Juntamente com os Kilowatts, & # x201D Semana de negócios, 8 de agosto de 1994, p. 59.

29. I.L. Janis, Vítimas do pensamento de grupo (Boston, Massachusetts: Houghton-Mifflin, 1972) e

G. Whyte, & # x201CGroupthink reconsiderado, & # x201D Academy of Management Review 14 (1989): 40 & # x201356.

30. J. Huey, & # x201CSecrets of Great Second Bananas, & # x201D Fortuna, 6 de maio de 1991, pp. 64 & # x201376.

31. J.M. Howell e B.J. Avolio, & # x201CThe Ética da Liderança Carismática: Submissão ou Libertação, & # x201D O executivo 6 (1992): 43 & # x201354

D. Miller, O paradoxo de Icarus (Nova York: HarperBusiness, 1990) e

J.A. Byrne, C. Symonds e J. Flynn, & # x201CCEO Disease, & # x201D Semana de negócios, 1 de abril de 1991, pp. 52 & # x201360.

32. A.O. Hirschman, Sair, Voz e Lealdade (Cambridge, Massachusetts: Harvard Business School Press, 1970).

33. Tem havido um debate considerável na literatura de administração sobre os méritos relativos do advogado do diabo e abordagens dialéticas de investigação para a tomada de decisão. Cozier e Schwenk representam uma reconciliação (compromisso ou solução sinérgica) por protagonistas opostos dos dois métodos diferentes. Ver:

R.A. Cozier e C.R. Schwenk, & # x201CAgreement and Thinking Alike: Ingredients for Poor Decisions, & # x201D O executivo 4 (1990): 69 & # x201374. Para uma comparação científica da dialética, do advogado do diabo e dos procedimentos de consenso para a tomada de decisão, consulte:

D.M. Sweiger, W.R. Sandberg e J.W. Ragan, & # x201CGroup Approaches for Improving Decision Making: A Comparative Analysis of Dialectical Inquiry, Devil & # x2019s Advocacy, and Consensus, & # x201D Academy of Management Review 29 (1986): 51 & # x201371.

34. Mitroff et al. (1979).

35. J.A. Pearce III e S.A. Zahra, & # x201CO poder relativo dos CEOs e conselhos de administração: associações com desempenho corporativo, & # x201DDiário de Gestão Estratégica 12 (1991): 135 & # x2013153.

36. Para obter uma descrição acessível da teoria da agência e sua relevância para a teoria da organização, consulte:

K. Eisenhardt, & # x201CAgency Theory: An Assessment and Review, & # x201D Academy of Management Review 14 (1989): 57 & # x201374.

38. Grande parte da discussão nesta seção é inspirada em Allaire e Firsirotu. Ver:

Y. Allaire e M. Firsirotu, & # x201C Planos Estratégicos como Contratos, & # x201D Planejamento de longo alcance 23 (1991): 102 & # x2013115.

39. H.S. Geneen, Gerenciando (Garden City, Nova York: Doubleday, 1984).

40. Veja Peters e Waterman (1982) e

Allaire e Firsirotu (1991).

41. Verity et al. (1991).

42. Y. Allaire e M. Firsirotu, & # x201Como implementar estratégias radicais em grandes organizações, & # x201D Sloan Management Review, Primavera de 1985, pp. 19 & # x201334

G. Donaldson e J.W. Lorsch, Tomada de decisão no topo (Nova York: Basic Books, 1983) e

J. Huey, & # x201CNothing Is Impossible, & # x201D Fortuna, 23 de setembro de 1991, pp. 134 & # x2013140.


Pontos chave

A Análise da Matriz de Decisão ajuda você a decidir entre várias opções, onde você precisa levar muitos fatores diferentes em consideração.

Para usar a ferramenta, organize suas opções como linhas em uma mesa. Configure as colunas para mostrar os fatores que você precisa considerar. Pontue cada escolha para cada fator usando números de 0 (ruim) a 5 (muito bom) e, em seguida, aloque pesos para mostrar a importância de cada um desses fatores.

Multiplique cada pontuação pelo peso do fator, para mostrar sua contribuição para a seleção geral. Finalmente, some as pontuações totais para cada opção. A opção de maior pontuação será a melhor opção.

A Análise da Matriz de Decisão é a forma mais simples de Análise de Decisão de Múltiplos Critérios (MCDA), também conhecida como Auxílio à Decisão de Múltiplos Critérios ou Gerenciamento de Decisão de Múltiplos Critérios (MCDM). A MCDA sofisticada pode envolver modelagem altamente complexa de diferentes cenários potenciais, usando matemática avançada.

Muitas decisões de negócios, no entanto, são baseadas em dados aproximados ou subjetivos. Quando for esse o caso, a análise da matriz de decisão pode ser tudo o que & rsquos necessário.

Este site ensina as habilidades que você precisa para uma carreira feliz e bem-sucedida e esta é apenas uma das muitas ferramentas e recursos que você encontrará aqui no Mind Tools. Assine nosso boletim informativo gratuito ou junte-se ao Clube de Ferramentas Mentais e realmente turbine sua carreira!


Uma Visão Geral de Modelos de Tomada de Decisão

Os muitos modelos de tomada de decisão que existem hoje em dia significam que você ainda tem que decidir qual usar! Existem modelos racionais, modelos intuitivos, modelos racionais iterativos, bem como modelos de decisão de 5, 6, 7 e até 9 etapas.

A maioria, entretanto, passa por cada um dos estágios básicos da tomada de decisão.

Nesta página, examinaremos rapidamente os pontos principais de alguns desses modelos de decisão para que você tenha uma noção do que está disponível.

Alguns desses modelos de tomada de decisão pressupõem que tomar decisões é o mesmo que resolver problemas. Freqüentemente, a primeira etapa no processo de tomada de decisão é identificar o problema. Não acredito que toda decisão resolva um problema. Por exemplo, decidir se deseja chocolate amargo ou chocolate ao leite não é, por si só, um quadro de problemas.

Também entendo que, para algumas pessoas, a tomada de decisões pode ser um problema! Mas isso não significa que sejam a mesma coisa. Portanto, minhas descrições e ideias abaixo mantêm essas coisas separadas.

Modelos racionais de tomada de decisão

Análise de matriz de decisão, matriz de Pugh, análise SWOT, análise de Pareto e árvores de decisão são exemplos de modelos racionais e você pode ler mais sobre os mais populares aqui.

Esse tipo de modelo é baseado em um julgamento cognitivo dos prós e contras de várias opções. É organizado em torno da seleção do alternativa mais lógica e sensata isso terá o efeito desejado. A análise detalhada das alternativas e uma avaliação comparativa das vantagens de cada uma estão na ordem do dia.

Modelos de decisão racionais podem consumir muito tempo e geralmente requerem muita preparação em termos de coleta de informações. O processo de tomada de decisão de seis etapas é um exemplo clássico nesta categoria e você pode ler sobre o modelo de 9 etapas aqui.

O modelo de decisão Vroom-Jago ajuda os líderes a decidirem quanto envolvimento suas equipes e subordinados devem ter no processo de tomada de decisão.

Modelo de tomada de decisão em sete etapas

O modelo de sete etapas foi projetado para escolher carreiras e pode ser classificado como um modelo de tomada de decisão racional. As sete etapas são projetadas para, em primeiro lugar, identificar o quadro da decisão. Com base nas informações disponíveis, alternativas são geradas. Mais informações sobre essas alternativas são coletadas para escolher a melhor.

Tem uma modelo favorita?

Mas o que acontece quando há muita informação? Como você separa o útil do inútil? E então, é claro, o mundo está mudando tão rapidamente que as informações também estão mudando rapidamente. Mas esperar que as coisas se estabilizem pode causar um atraso na tomada de decisões que pode, por sua vez, levar a oportunidades perdidas.

Muitos pensam que o caminho a seguir envolve reaproveitar o poder de nossa intuição.

Modelos intuitivos de tomada de decisão

Algumas pessoas consideram essas decisões como coincidências improváveis, suposições sortudas ou algum tipo de truque da nova era. Muitas universidades ainda estão apenas ensinando modelos de decisão racionais e sugerem que, se eles não forem usados, o resultado será o fracasso. Alguns pesquisadores estão até estudando a lógica por trás da decisão intuitiva fazendo modelos!

Os grupos que estudam modelos de decisão intuitivos estão percebendo que não é simplesmente o oposto da tomada de decisão racional.

Nas escolas militares, os modelos racionais e analíticos têm sido utilizados historicamente. Também há muito se reconhece, entretanto, que, uma vez que o inimigo esteja engajado, o modelo analítico pode fazer mais mal do que bem. A história está repleta de exemplos em que as batalhas foram perdidas com mais frequência pelo fracasso de um líder em tomar uma decisão do que por ele tomar uma decisão ruim.

"Um bom plano executado agora é melhor do que um plano perfeito na próxima semana."

Os militares estão educando os soldados de todas as categorias sobre como tomar decisões intuitivas. Sobrecarga de informação, falta de tempo e condições caóticas são condições precárias para modelos racionais. Em vez de melhorar sua tomada de decisão racional, o exército se voltou para modelos de decisão intuitivos. Porque? Porque eles funcionam!

Modelo de tomada de decisão baseado em reconhecimento

Se eles acham que não vai funcionar, eles escolhem outro, e o ensaiam mentalmente. Assim que encontram um que acham que vai funcionar, eles o fazem. Mais uma vez, a experiência e o aprendizado do passado desempenham um grande papel aqui.

nenhuma comparação real de escolhas, mas sim um ciclo de escolhas até que uma apropriada seja encontrada.

Obviamente, as pessoas ficam melhores com isso com o tempo, à medida que têm mais experiências e aprendem mais padrões.

Para mais exemplos de modelos de decisão, você pode ler uma longa lista aqui.


Uma análise comparativa de redes neurais e métodos estatísticos para prever a escolha do consumidor

Este artigo apresenta uma descrição definitiva da metodologia de rede neural e fornece uma avaliação de suas vantagens e desvantagens em relação aos procedimentos estatísticos. O desenvolvimento desta rica classe de modelos foi inspirado na arquitetura neural do cérebro humano. Esses modelos emulam matematicamente a estrutura neurofísica e a tomada de decisão do cérebro humano e, de uma perspectiva estatística, estão intimamente relacionados aos modelos lineares generalizados. Redes neurais artificiais são, no entanto, não lineares e usam um procedimento de estimativa diferente (feed forward e back propagation) do que é usado em modelos estatísticos tradicionais (mínimos quadrados ou probabilidade máxima). Além disso, os modelos de rede neural não exigem as mesmas suposições restritivas sobre a relação entre as variáveis ​​independentes e as variáveis ​​dependentes. Consequentemente, esses modelos já foram aplicados com muito sucesso em muitas disciplinas diversas, incluindo biologia, psicologia, estatística, matemática, negócios, seguros e ciência da computação.

Propomos que as redes neurais provarão ser uma ferramenta valiosa para os profissionais de marketing preocupados em prever a escolha do consumidor. Demonstraremos que as redes neurais fornecem previsões superiores em relação aos processos de decisão do consumidor. No contexto da modelagem do julgamento do consumidor e da tomada de decisão, por exemplo, os modelos de rede neural podem oferecer melhorias significativas em relação aos métodos estatísticos tradicionais devido à sua capacidade de capturar relacionamentos não lineares associados ao uso de regras de decisão não compensatórias. Nossa análise revela que as redes neurais têm grande potencial para melhorar as previsões do modelo em contextos de decisão não linear, sem sacrificar o desempenho em contextos de decisão linear.

Este artigo fornece uma introdução detalhada às redes neurais que é compreensível tanto para o pesquisador acadêmico quanto para o profissional. Esta exposição tem como objetivo fornecer a intuição e os modelos matemáticos rigorosos necessários para aplicações bem-sucedidas. Em particular, um esboço passo a passo de como usar os modelos é fornecido junto com uma discussão sobre os pontos fortes e fracos do modelo. Também abordamos a robustez dos modelos de rede neural e discutimos até que ponto você pode errar usando modelos de rede neural em comparação com os métodos estatísticos tradicionais.

Aqui relatamos os resultados de dois estudos. O primeiro é uma simulação numérica comparando a capacidade das redes neurais com análise discriminante e regressão logística em prever escolhas feitas por regras de decisão que variam em complexidade. Isso inclui simulações envolvendo duas regras de decisão não compensatórias e uma regra de decisão compensatória que envolve limites de atributos. Em particular, testamos uma variante da regra satisficing usada por Johnson et al. (Johnson, Eric J., Robert J. Meyer, Sanjoy Ghose. 1989. Quando os modelos de escolha falham: Modelos compensatórios em ambientes negativamente correlacionados. J. Marketing Res.26(Agosto) 255–270.) Que define um limite inferior em todos os valores de atributo e um modelo de "latitude de aceitação" que define um limite inferior e um limite superior em valores de atributo, imitando um modelo de "ponto ideal" (Coombs e Avrunin [Coombs, Clyde H., George S. Avrunin. 1977. Funções de pico único e a teoria da preferência. Psych. Rev.84 216–230.]). Também testamos uma regra compensatória que pondera igualmente os atributos e julga a aceitabilidade de uma alternativa com base na soma dos valores de seus atributos. Assim, as simulações incluem tanto um ambiente linear, no qual os modelos estatísticos tradicionais podem ser considerados adequados, quanto um ambiente não linear onde os modelos estatísticos podem não ser adequados. A complexidade das regras de decisão foi variada para testar qualquer degradação potencial no desempenho do modelo. Para esses dados simulados, é mostrado que, em geral, o modelo de rede neural supera os procedimentos estatísticos comumente usados ​​em termos de variância explicada e precisão preditiva fora da amostra.

Um estudo empírico ligando as linhas de pesquisa comportamental e estatística também foi conduzido. Aqui, examinamos a relação preditiva entre as variáveis ​​de imagem da loja de varejo e o comportamento de clientela do consumidor. Uma comparação direta entre um modelo de rede neural e as técnicas mais comumente encontradas de análise discriminante e análise fatorial seguida de regressão logística é apresentada. Mais uma vez, os resultados revelam que o modelo de rede neural superou os procedimentos estatísticos em termos de variância explicada e precisão preditiva fora da amostra. Concluímos que os modelos de rede neural oferecem recursos preditivos superiores aos métodos estatísticos tradicionais para prever a escolha do consumidor em configurações lineares e não lineares.


Como a automação muda o controle do crime?

A automação do policiamento

Por meio de CompStat (COMPuter STATistics, ou COMParative STATistics), modelagem geoespacial para prever futuras concentrações de crime, ou "pontos críticos", a nota de rodapé 3 se tornou um paradigma de policiamento gerencial empregando Sistemas de Informação Geográfica (GIS) para mapear o crime. Isso tem sido defendido como uma abordagem dinâmica em várias camadas para a redução do crime, melhoria da qualidade de vida, gestão de pessoal e recursos, e não apenas um programa de computador. A ideia não é apenas "ver o crime" visualmente apresentado em um mapa, mas sim desenvolver uma abordagem gerencial abrangente ou uma filosofia de gestão policial. Como uma "ferramenta de gestão de recursos humanos", envolve "reuniões semanais em que os oficiais revisam as métricas recentes (relatórios de crimes, citações e outros dados) e falam sobre como melhorar esses números". Nota de rodapé 4

Comparado ao software de previsão algorítmica, o sistema CompStat é calibrado com menos frequência. Como relatou um policial de Santa Cruz (EUA): ‘Estou olhando um mapa da semana passada e toda a suposição é que a próxima semana será como a semana passada [...]’. Nota de rodapé 5 CompStat depende mais de humanos para reconhecer padrões. No entanto, incorporou pela primeira vez a ideia de ver como o crime evolui e se concentrar "na superfície" e não nas causas do crime. Neste contexto, Siegel argumenta com respeito à análise preditiva: "Normalmente não sabemos sobre a causalidade e muitas vezes não nos importamos necessariamente [...] o objetivo é mais prever do que entender o mundo [...]. Ele só precisa trabalhar a explicação dos triunfos da previsão. 'Nota de rodapé 6 Em comparação com a analítica de IA, seu fator limitante é a profundidade das informações e a amplitude de análise relacionada. A quantidade de dados não é o problema, pois as agências coletam grandes quantidades de dados todos os dias. Em vez disso, o próximo desafio é a capacidade de extrair conhecimento operacionalmente relevante dos dados coletados.

Os métodos computacionais de ‘mapeamento preditivo do crime’ começaram a entrar no controle do crime há doze anos. Nota de rodapé 7 Os instrumentos de policiamento preditivos de "big data" deram outro passo evolutivo. Primeiro, os avanços em IA prometiam dar sentido a enormes quantidades de dados e extrair significado de conjuntos de dados dispersos. Em segundo lugar, eles representaram uma mudança de sistema de apoio à decisão para o principal tomador de decisão. Em terceiro lugar, visam a regulamentação da sociedade em geral e não apenas a luta contra o crime. (Para um exemplo de ‘função-creep’, consulte ‘programa de sistema de conscientização total de informação’ de Cingapura). Nota de rodapé 8

A polícia está usando ferramentas de IA para penetrar profundamente na fase preparatória do crime que ainda não foi cometido, bem como para examinar crimes já cometidos. No que diz respeito às medidas preventivas ex ante, as ferramentas de automação devem escavar plotters de crimes que ainda não foram cometidos a partir de grandes quantidades de dados. Portanto, é feita uma distinção entre ferramentas com foco em indivíduos "de risco" ("listas de calor" - listas geradas por algoritmos que identificam as pessoas com maior probabilidade de cometer um crime) Nota de rodapé 9 e ferramentas com foco em locais de risco ("policiamento de pontos quentes"). Nota de rodapé 10 Com relação ao segundo uso ex-post-facto de ferramentas de automação, tem havido muitas histórias de sucesso na luta contra o tráfico de pessoas. Na Europa, a Interpol gerencia o Banco de Dados de Imagens de Exploração Sexual Infantil Internacional (ICSE DB) para combater o abuso sexual infantil. O banco de dados pode facilitar a identificação de vítimas e perpetradores por meio de uma análise de, por exemplo, móveis e outros itens mundanos no fundo de imagens abusivas - por exemplo, corresponde a tapetes, cortinas, móveis e acessórios de quarto - ou ruído de fundo identificável no vídeo. Chatbots agindo como pessoas reais são outro avanço na luta contra o aliciamento e o "turismo sexual" pela webcam. Na Europa, a organização holandesa pelos direitos da criança Terre des Hommes foi a primeira ONG a combater o "turismo sexual" infantil por webcam usando um personagem virtual chamado "Sweetie". Nota de rodapé 11 O avatar Sweetie, se passando por uma menina filipina de dez anos, foi usado para identificar criminosos em salas de chat e fóruns online e operado por um agente da organização, cujo objetivo era coletar informações sobre indivíduos que entraram em contato com Sweetie e solicitaram webcam sexo. Além disso, Terre des Hommes começou a projetar um sistema de IA capaz de representar e agir como Sweetie sem intervenção humana, a fim de não apenas identificar os perpetradores persistentes, mas também para deter os primeiros agressores.

Algumas outras pesquisas sobre prevenção de crimes com a ajuda de visão computacional e reconhecimento de padrões com aprendizado de máquina supervisionado parecem extremamente perigosas. Nota de rodapé 12 A pesquisa sobre inferência automatizada de criminalidade a partir de imagens faciais com base em imagens faciais de 1.856 pessoas reais (meio condenadas) resultou em que existem apenas três características para prever a criminalidade: curvatura labial, distância do canto interno do olho e ângulo nariz-boca . As suposições implícitas dos pesquisadores eram que, primeiro, a aparência do rosto de uma pessoa é uma função de propriedades inatas, ou seja, a compreensão de que as pessoas têm um núcleo imutável. Em segundo lugar, essa "criminalidade" é uma propriedade inata de certos (grupos de) pessoas, que pode ser identificada apenas pela análise de seus rostos. E em terceiro lugar, no caso de as duas primeiras suposições serem corretas, que o sistema de justiça criminal é realmente capaz de determinar de forma confiável tal "criminalidade", o que implica que os tribunais são (ou talvez devessem se tornar) laboratórios para a medição precisa dos rostos das pessoas. O software que prometia inferir criminalidade a partir de imagens faciais na nota de rodapé 13 iluminou alguns dos equívocos arraigados sobre o que é crime e como ele é definido, processado e julgado. A antes ridicularizada frenologia do século XIX, portanto, entrou no século XXI com novas roupas como "frenologia algorítmica", que pode legitimar preconceitos implícitos profundamente enraizados sobre o crime. Nota de rodapé 14 Dois pesquisadores, Wu e Zhang, admitiram posteriormente que ‘concordam que a palavra pungente criminalidade deve ser colocada entre aspas; uma advertência sobre os possíveis vieses nos dados de entrada deve ser emitida. Aceitar uma condenação judicial pelo seu valor nominal, ou seja, como a 'verdade fundamental' para o aprendizado de máquina, foi de fato um descuido sério de nossa parte. ”Nota de rodapé 15 No entanto, sua pesquisa revelou como, em um futuro próximo, novos passos ao longo da linha de um foco corporal no controle do crime pode ser razoavelmente esperado: da análise de padrões de caminhada, postura e reconhecimento facial para fins de identificação, à análise de expressões faciais e padrões de caligrafia para reconhecimento de emoção e percepção de estados psicológicos.

Automação em tribunais criminais

Os tribunais usam sistemas de IA para avaliar a probabilidade de reincidência e a probabilidade de fuga daqueles que aguardam julgamento ou de infratores sob fiança e liberdade condicional. Os exemplos mais analisados ​​e discutidos vêm dos EUA, onde também é usada a maior parte desse tipo de software. Nota de rodapé 16 O algoritmo da Arnold Foundation, que está sendo implementado em 21 jurisdições nos EUA, a nota de rodapé 17 usa 1,5 milhão de casos criminais para prever o comportamento dos réus na fase de pré-julgamento. A Flórida usa algoritmos de aprendizado de máquina para definir os valores da fiança. Nota de rodapé 18

Um estudo de 1,36 milhão de casos de prisão preventiva mostrou que um computador pode prever se um suspeito fugirá ou reincidirá ainda melhor do que um juiz humano. Nota de rodapé 19 No entanto, embora esses dados pareçam persuasivos, é importante considerar que as decisões podem de fato ser menos justas. Sempre haverá fatos adicionais em um caso particular que podem ser únicos e ir além dos quarenta ou mais parâmetros considerados pelo algoritmo neste estudo que podem determinar crucialmente o resultado do processo de deliberação. Existe, portanto, a necessidade inevitável de ao infinito melhorias. Moreover, the problem of selective labelling needs to be considered: we see results only regarding sub-groups that are analysed, only regarding people who have been released. The data that we see is data garnered based on our decisions as regards who to send to pre-trial detention. The researchers themselves pointed out that judges may have a broader set of preferences than the variables that the algorithm focuses on. Footnote 20 Finally, there is the question of what we want to achieve with AI systems, what we would like to ‘optimise’: decreasing crime is an important goal, but not the only goal in criminal justice. The fairness of the procedure is equally significant.

Several European countries are using automated decision-making systems for justice administration, especially for the allocation of cases to judges, e.g., in Georgia, Poland, Serbia, and Slovakia, and to other public officials, such as enforcement officers in Serbia. Footnote 21 However, while these cases are examples of indirect automated decision-making systems, they may still significantly affect the right to a fair trial. The study ‘alGOVrithms—State of Play’ showed that none of the four countries using automated decision-making systems for case-allocation allows access to the algorithm and/or the source code. Footnote 22 Independent monitoring and auditing of automated decision-making systems is not possible, as the systems lack basic transparency. The main concern touches on how random these systems actually are, and whether they allow tinkering and can therefore be ‘fooled’. What is even more worrying is that automated decision-making systems used for court management purposes are not transparent even for the judges themselves. Footnote 23

There are several other ongoing developments touching upon courtroom decision-making. In Estonia, the Ministry of Justice is financing a team to design a robot judge which could adjudicate small claims disputes of less than €7,000. Footnote 24 In concept, the two parties will upload documents and other relevant information, and the AI will issue a decision against which an appeal with a human judge may be lodged.

Automation in prisons

New tools are used in various ways in the post-conviction stage. In prisons, AI is increasingly being used for the automation of security as well as for the rehabilitative aspect of prisonisation. A prison that houses some of China’s most high-profile criminals is reportedly installing an AI network that will be able to recognise and track every prisoner around the clock and alert guards if anything seems out of place. Footnote 25

These systems are also used to ascertain the criminogenic needs of offenders that can be changed through treatment, and to monitor interventions in sentencing procedures. Footnote 26 In Finnish prisons the training of inmates encompasses AI training algorithms. Footnote 27 The inmates help to classify and answer simple questions in user studies, e.g., reviewing pieces of content collected from social media and from around the internet. The work is supposed to benefit Vainu, the company organising the prison work, while also providing prisoners with new job-related skills that could help them successfully re-enter society after they serve their sentences. Similarly, in England and Wales, the government has announced new funding for prisoners to be trained in coding as part of a £1.2m package to help under-represented groups get into such work. Footnote 28 Some scholars are even discussing the possibility of using AI to address the solitary confinement crisis in the USA by employing smart assistants, similar to Amazon’s Alexa, as a form of ‘confinement companions’ for prisoners. While the ‘companions’ may alleviate some of the psychological stress for some prisoners, the focus on the ‘surface’ of the problem of solitary confinement conceals the debate about the aggravating harm of such confinement, Footnote 29 and actually contributes to the legitimisation of solitary confinement penal policy. The shift from the real problem seems outrageous on its own.


Qualitative Comparative Analysis

Qualitative Comparative Analysis (QCA) is a means of analysing the causal contribution of different conditions (e.g. aspects of an intervention and the wider context) to an outcome of interest. QCA starts with the documentation of the different configurations of conditions associated with each case of an observed outcome. These are then subject to a minimisation procedure that identifies the simplest set of conditions that can account all the observed outcomes, as well as their absence.

The results are typically expressed in statements expressed in ordinary language or as Boolean algebra. Por exemplo:

  • A combination of Condition A and condition B or a combination of condition C and condition D will lead to outcome E.
  • In Boolean notation this is expressed more succinctly as A*B + C*D&rarrE

QCA results are able to distinguish various complex forms of causation, including:

  • Configurations of causal conditions, not just single causes. In the example above, there are two different causal configurations, each made up of two conditions.
  • Equifinality, where there is more than one way in which an outcome can happen. In the above example, each additional configuration represents a different causal pathway
  • Causal conditions which are necessary, sufficient, both or neither, plus more complex combinations (known as INUS causes &ndash insufficient but necessary parts of a configuration that is unnecessary but sufficient), which tend to be more common in everyday life. In the example above, no one condition was sufficient or necessary. But each condition is an INUS type cause
  • Asymmetric causes &ndash where the causes of failure may not simply be the absence of the cause of success. In the example above, the configuration associated with the absence of E might have been one like this: A*B*X + C*D*X &rarre Here X condition was a sufficient and necessary blocking condition.
  • The relative influence of different individual conditions and causal configurations in a set of cases being examined. In the example above, the first configuration may have been associated with 10 cases where the outcome was E, whereas the second might have been associated with only 5 cases. Configurations can be evaluated in terms of coverage (the percentage of cases they explain) and consistency (the extent to which a configuration is always associated with a given outcome).

QCA is able to use relatively small and simple data sets. There is no requirement to have enough cases to achieve statistical significance, although ideally there should be enough cases to potentially exhibit all the possible configurations. The latter depends on the numbers of conditions present. In a recent survey of QCA uses the median number of cases was 22 and the median number of conditions was 6. For each case the presence or absence of a condition is recorded using nominal data i.e. a 1 or 0. More sophisticated forms of QCA allow the use of &ldquofuzzy sets&rdquo i.e. where a condition may be partly present or partly absent, represented by value of 0.8 or 0.2 for example. Or there may be more than one kind of presence, represented by values of 0,1,2 or more for example. Data for a QCA analysis is collated in a simple matrix form, where rows = cases and columns = conditions, with the rightmost column listing the associated outcome for each case, also described in binary form.

QCA is a theory driven approach, in that the choice of conditions being examined needs to be driven by a prior theory about what matters. The list of conditions may also be revised in the light of the results of the QCA analysis, if some configurations are still shown as being associated with a mixture of outcomes. The coding of the presence/absence of a condition also requires an explicit view of that condition and when and where it can be considered present. Dichotomisation of quantitative measures about the incidence of a condition also needs to be carried out with an explicit rationale, and not on an arbitrary basis.

Although QCA was originally developed by Charles Ragin some decades ago it is only in the last decade that its use has become more common amongst evaluators. Articles on its use have appeared in Evaluation and the American Journal of Evaluation. There is now a website dedicated to hosting resources on its use: Compass

Exemplo

For a worked example, see Charles Ragin&rsquos What is Qualitative Comparative Analysis (QCA)?, slides 6 to 15 on The bare-bones basics of crisp-set QCA.

[A crude summary of the example is presented here]

In his presentation Ragin provides data on 65 countries and their reactions to austerity measures imposed by the IMF. This has been condensed into a Truth Table (shown below), which shows all possible configurations of four different conditions that were thought to affect countries&rsquo responses: the presence or absence of severe austerity, prior mobilisation, corrupt government, rapid price rises. Next to each configuration is data on the outcome associated with that configuration &ndash the numbers of countries experiencing mass protest or not. There are 16 configurations in all, one per row. The rightmost column describes the consistency of each configuration: whether all cases with that configuration have one type of outcome, or a mixed outcome (i.e. some protests and some no protests). Notice that there are also some configurations with no known cases.

Ragin&rsquos next step is to improve the consistency of the configurations with mixed consistency. This is done either by rejecting cases within an inconsistent configuration because they are outliers (with exceptional circumstances unlikely to be repeated elsewhere) or by introducing an additional condition (column) which distinguishes between those configurations which did lead to protest and those which did not. In this example, a new condition was introduced that removed the inconsistency, which was described as &ldquonot having a repressive regime&rdquo.

The next step involves reducing the number of configurations needed to explain all the outcomes, known as minimisation. Because this is a time consuming process, this is done by an automated algorithm (aka a computer program) This algorithm takes two configurations at a time and examines if they have the same outcome. If so, and if their configurations are only different in respect to one condition this is deemed to not be an important casual factor and the two configurations are collapsed into one. This process of comparisons is continued, looking all configurations, including newly collapsed ones, until no further reductions are possible.

[Jumping a few more specific steps] The final result from the minimisation of the above truth table is this configuration:

The expression indicates that IMF protest erupts when severe austerity (SA) is combined with either (1) rapid price increases (PR) or (2) the combination of prior mobilization (PM), government corruption (GC), and non-repressive regime (NR).


For an artificial agent to assume a real social role and establish a meaningful relationship with a human, it would need to have a psychological, cultural, social and emotional profile. Current machine learning methods do not allow for such a development. Tomorrow's robots will be our humble assistants, nothing more.

We live in a time when robots clean our houses, drive our vehicles, disable bombs, provide prosthetic limbs, support surgical procedures, manufacture products, entertain, teach and surprise us. Just as smartphones and social media are offering a connectivity beyond anything we imagined, robots are beginning to offer physical capabilities and artificial intelligence (AI), cognitive abilities beyond our expectations. Together, these technologies could be harnessed to help solve important challenges, such as ageing societies, environmental threats and global conflict.

What will a day in our lives look like, in this not-so-distant future? Science fiction has explored these possibilities for centuries. Our lives will likely be longer: with synthetic organs to replace defective parts of our bodies, nanosized medical interventions allowing the precise targeting of diseases and genetics, and autonomous vehicles reducing fatalities in traffic. Our jobs will change dramatically. Certain jobs will not exist anymore and new jobs will emerge – in the development of robot service apps, for instance, that could run on available robot platforms in our homes. The way we are educated will also change radically – our senses and brains may be artificially enhanced, and our ability to reflect on new insights gained from the automated analysis of vast amounts of data will require a different treatment of information in schools.

But how will we relate to each other in a civilization that includes robots? In what way will we meet each other, have relationships and raise our children? To what extent will robots and humans merge?

Many of us wonder whether AI will become so intelligent and capable in human communication that the boundaries between human and artificial beings will blur. If it is possible to communicate in a natural way and build a meaningful interaction over time with an artificial agent, will there still be a divide in the relationships we have with people and technology? Also, once our human bodies and minds are enhanced with AI and robotics, what will it mean to be “human”?

Smart tricks

From an engineering perspective, these advanced capabilities are still very far away. A number of hurdles need to be overcome. For now, robots and computers are completely dependent on a power source – they require a lot of electricity, and this complicates integrating robotic elements with human organic tissue. Another hurdle is the intricacy of human communication. While a one-off natural language conversation in a specific context with a robot can feel realistic, engaging people verbally and non-verbally over many conversations and contexts is quite another matter.

For example, when you call an artificial lost-and-found agent at an airport, a satisfying conversation is possible because there are only a limited number of goals the caller has. However, in creating a more extended relationship, for example, with a robotic pet, a much more complicated model must be developed. The robot needs to have internal goals, an extensive memory that relates experiences to various contexts, and it needs to develop these capabilities over time.

Through smart “tricks”, a robot can seem more intelligent and capable than it is – by introducing random behaviours which make the robotic pet interesting for longer, for instance. Humans have the tendency to “make sense” of the robot’s behaviours in a human way (we do this with animals too). However, in order to sustain a meaningful relationship which deepens and evolves over time, an extensive artificial inner life will need to be created.

How machines learn

A major hurdle in creating this rich artificial inner life is the way machines learn. Machine learning is example-based. We feed the computer examples of the phenomenon we want it to understand – for instance, when people feel comfortable. In teaching a machine to recognize this, data of people being comfortable is provided – this could be in the form of images, videos, their speech, heartbeat, social media entries, etc. When we feed videos to a computer, these are labelled with information on whether the people in it are comfortable or not – this may be done by experts in psychology, or in the local culture.

The computer uses machine learning to “reason” from these labelled videos to identify important features that correlate with feeling comfortable. This could be the body pose of a person, the pitch of their voice, etc.

Once the machine has identified the features predicting “comfort”, the resulting algorithm can be trained and improved, using different sets of videos. Eventually, the algorithm is robust and a computer with a camera can recognize how people feel with high, if not 100 per cent, accuracy.

Now that we understand roughly how machines learn, why is that a hurdle in creating a compelling inner life for an artificial agent to realize a seamless integration with humans?

Towards a complex synthetic profile

In order to develop an artificial agent that can have a sustained relationship, over a long period of time, with a person, we need the agent to have a compelling personality and behaviours, understand the person, the situation in which they are both in, and the history of their communication. More importantly, the agent would have to keep the communication going across a variety of topics and situations. It is possible to make a compelling agent, such as Amazon’s Alexa or Apple’s Siri, that you can speak to in natural language and have a meaningful interaction with, within the specific context of its use – set the alarm clock, make a note, turn down the heating, etc.

However, beyond that context of use, the communication quickly breaks down. The agent will find acceptable responses for a large variety of questions and comments, but will not be able to sustain an hour-long discussion about a complex issue. For instance, when parents discuss how to respond to their child not working hard at school, the conversation is very rich – they bring to it their understanding of the child, and their own personalities, emotions, history, socio-economic and cultural backgrounds, psychology, genetic make-up, behavioural habits and understanding of the world.

In order for an artificial agent to take on such a meaningful social role and develop a real relationship with a person, it would need to have a synthetic psychological, cultural, social and emotional profile. Also, the agent would need to learn over time how it “feels” and respond to situations in relation to this synthetic internal make-up.

This requires a fundamentally different approach to current machine learning. An artificially intelligent system that develops much like how the human brain develops, and that can internalize the richness of human experiences, is needed. The intricate ways people communicate with each other and understand the world is an unimaginably complex process to synthesize. The envisioned and currently available models of AI are inspired by the human brain or have elements of how the brain works, but are not yet plausible models of the human brain.

We already see AI achieving amazing feats – like reading the entire internet, winning at Go, the ancient Chinese board game, or running a fully automated factory. However, just like the English physicist Stephen Hawking (1942-2018) said he had only scratched the surface of understanding the universe, we are still merely scratching the surface of understanding human intelligence.

It won’t happen tomorrow

Robots and artificially intelligent systems will be able to offer us unique abilities to support and enhance our decision-making, understanding of situations and ways to act. Robots will be able to contribute to or autonomously carry out labour. Perhaps robotics will be fully physically integrated in our human bodies once a number of challenges are overcome. Also, we will relate to artificial agents as we do to humans – by communicating with them in natural language, observing their behaviours and understanding their intentions. However, in order to sustain a meaningful relationship with conversations and rituals, which deepen and evolve over time in the rich context of everyday life, as is the case between people, an extensive artificial inner life will need to be created. As long as we replicate or surpass certain functions of human intelligence rather than the holistic whole of human intelligence placed in the rich context of our everyday lives, it is unlikely that artificial agents and people can be totally integrated.


Comportamento organizacional e processos de decisão humana

Comportamento organizacional e processos de decisão humana publishes fundamental research in organizational behavior, organizational psychology, e human cognition, julgamento, e decision-making. The journal features articles that present original empirical research, theory development, meta-analysis, and.

Comportamento organizacional e processos de decisão humana publishes fundamental research in organizational behavior, organizational psychology, e human cognition, julgamento, e decision-making. The journal features articles that present original empirical research, theory development, meta-analysis, and methodological advancements relevant to the substantive domains served by the journal. Topics covered by the journal include perception, cognition, judgment, attitudes, emotion, well-being, motivation, choice, and performance. We are interested in articles that investigate these topics as they pertain to individuals, dyads, groups, and other social collectives. For each topic, we place a premium on articles that make fundamental and substantial contributions to understanding psychological processes relevant to human attitudes, cognitions, and behavior in organizations.

In order to be considered for publication in OBHDP a manuscript has to include the following:

  1. Demonstrate an interesting behavioral/psychological phenomenon
  2. Make a significant theoretical and empirical contribution to the existing literature
  3. Identify and test the underlying psychological mechanism for the newly discovered behavioral/psychological phenomenon
  4. Have practical implications in organizational context

Benefícios para os autores
Também oferecemos muitos benefícios para o autor, como PDFs gratuitos, uma política liberal de direitos autorais, descontos especiais em publicações da Elsevier e muito mais. Clique aqui para obter mais informações sobre nossos serviços de autoria.

Consulte nosso Guia para autores para obter informações sobre o envio de artigos. Se você precisar de mais informações ou ajuda, visite nosso Centro de Suporte


The U.S. Army Is Getting Ready for the Robot Wars of the Future

These robots were designed with technical standards intended to enable rapid integration of any sensor or upgrade so that it can receive software updates and new weapons as new threats emerge over time.

Robots fired machine guns, grenade launchers and anti-tank missiles at a range of targets during a Robotic Combat Vehicle live-fire warfare preparation exercise, a key step toward integrating a new fleet of armed ground drones to support future Army combat operations. The addition of these kinds of robots, with humans of course maintaining decision-making authority regarding the use of lethal force, continues to greatly reshape Army tactics, maneuver formations and cross-domain combat operations.

“We actually shot live bullets off of these robots. It's really exciting what we've proven out thus far, not only are the robots working extremely well, the payloads are accurate and effective,” Maj. Gen. Ross Coffman, the director of the Next Generation Cross-Functional Team for Army Futures Command, told the National Interest. The live-fire exercises were with the Robot Combat Vehicle Light and Robotic Combat Vehicle Medium, two interrelated, yet distinct Army robot efforts intended to introduce new levels of autonomy, weapons attack and surveillance for ground troops advancing to contact with an enemy. During the live-fire tests, the sensor, payload and weapons integration performance exceeded expectations, Coffman explained.

“We are seeing an increased stability or increased range that we didn't think was possible previously,” he added.

The robots were designed with technical standards intended to enable rapid integration of any sensor or upgrade so that it can receive software updates and new weapons as new threats emerge over time.

“Really anything is possible because the great people that helped us with requirements were very clear. They wanted these robots to be payload agnostic, and because you can plug and play different things on top of the robot, the interface between the payload and the robot has proven very capable,” Coffman said.

Coffman explained that due to advances in cross-domain networking and hardened connectivity, command and control for the robots could be performed from dismounted soldiers, larger manned vehicles or even air platforms navigating, directing and controlling the robots.

With the intent of optimizing manned-unmanned teaming possibilities, the robots are engineered with advanced, artificial-intelligence-enabled computer algorithms intended to enable progressively expanding degrees of autonomy. More and more, robotic sensors can perform tasks independent of human intervention such as navigational functions, sensing, networking and data analysis. Coffman explained that through systems such as aided target recognition, robots can themselves find, identify and acquire targets and perform autonomous obstacle avoidance exercises, but still benefit greatly from humans operating in a command and control capacity.

“For target acquisition, that's the payload and then if you talk about autonomous behavior, for the robot itself, like right now we know we can execute waypoint navigation, we can have teleoperation and we can do obstacle avoidance. And we're really making huge strides on additional autonomous behaviors in the missions they do,” Coffman said.

Coffman explained that the plan was to use the robots in tactical missions with soldiers to inform senior service leaders about when they may become a program of record.

“We're going to take those, those four lights, those four mediums, and then the four surrogates that we built for last year's robotic soldier experiment, and we are going to form them into a company,” he explained.

Kris Osborn is the defense editor for the National Interest. Osborn previously served at the Pentagon as a Highly Qualified Expert with the Office of the Assistant Secretary of the Army—Acquisition, Logistics & Technology. Osborn has also worked as an anchor and on-air military specialist at national TV networks.

He has appeared as a guest military expert on Fox News, MSNBC, The Military Channel, and The History Channel. He also has a Master's Degree in Comparative Literature from Columbia University.


Assista o vídeo: CURSO BÁSICO DE ROBÓTICA INDUSTRIAL ABB - KUKA (Janeiro 2022).