Military Review

 

Isenção de responsabilidade: Em todas as suas publicações e produtos, a Military Review apresenta informações profissionais. Contudo, as opiniões neles expressas são dos autores e não refletem necessariamente as da Army University, do Departamento do Exército ou de qualquer outro órgão do governo dos EUA.


Primeiro Trimestre 2021

Operacionalização da Inteligência Artificial para a Guerra Algorítmica

Courtney Crosby, Ph.D.

Baixar PDF Baixar PDF

Fuzileiros Navais no Comando Ciberespacial do Corpo de Fuzileiros Navais observam operações de computador no centro de operações cibernéticas de Lasswell Hall, em Fort Meade, Maryland, 5 de fevereiro de 2020. Os fuzileiros navais conduzem operações cibernéticas ofensivas e defensivas em apoio ao Comando Cibernético dos EUA (U.S. Cyber Command) e operam, protegem e defendem a Rede Geral do Corpo de Fuzileiros Navais (Marine Corps Enterprise Network). (Foto original: 2o Sgt Jacob Osborne, CFN dos EUA. A foto foi modificada.)

Conflitos podem ser vencidos ou perdidos com base em compensações militares (offsets) ou meios com os quais as unidades de defesa podem combater assimetricamente as vantagens do adversário. Com a competição entre grandes potências, a superioridade da tecnologia adversária e os teatros de operações em constante expansão, as compensações convencionais geralmente são amplificadas pela inteligência artificial (IA)1. No entanto, a capacidade do Departamento de Defesa (DOD) dos Estados Unidos da América (EUA) de operacionalizar a IA é incipiente2. Os programas iniciais de IA adotados pelo Pentágono se concentram na transferência de capacidades comerciais para o setor de defesa, destacando assim o desempenho técnico e sem enfatizar a função orientada para a missão3. Como resultado, os projetos-piloto iniciais não conseguiram passar para ambientes operacionais (Amb Op) do mundo real.

Operacionalizar a inteligência artificial

A operacionalização depende do entendimento de que a IA não é um estado final, mas uma forma de obter uma vantagem militar. Para tanto, a execução técnica das metodologias relacionadas à IA deve combinar com o Amb Op. Essa consideração diverge do pensamento tradicional porque as soluções de IA são normalmente desenvolvidas para atingir um certo limite estatístico (por exemplo, memória, precisão), em vez de um objetivo militar (por exemplo, maior distância de segurança)4.

Essa dinâmica é confundida pelo termo “guerra algorítmica”, que atualmente emaranha caracterizações técnicas e militares. A guerra algorítmica tem por objetivo reduzir o número de combatentes em perigo, aumentar a velocidade de decisão em operações com restrição de tempo e operar quando e onde os humanos são incapazes de operar5. No entanto, nenhum desses objetivos se refere à matemática ou à ciência da computação; eles se baseiam diretamente em estados finais militares. O problema é que a ponte entre as disciplinas da ciência, tecnologia, engenharia e matemática e os estados finais militares nunca foi estabelecida antes de o Pentágono embarcar em sua trajetória de IA.

A ponte desejada é uma estrutura para orientar e analisar a operacionalização da IA com o desempenho do algoritmo de um lado e a utilidade para a missão do outro. Tal combinação garante que as equações matemáticas possam provar ou validar numericamente um sistema de IA, enquanto parâmetros qualitativos garantem a aplicação prática. O resultado é uma guerra algorítmica baseada não apenas em estatísticas, mas em uma arquitetura mais ampla voltada à relevância operacional. Essa relevância é expressa em cinco requisitos:

  • viabilidade mínima,
  • capacidade de se adaptar a cenários desconhecidos e irreconhecíveis,
  • priorização do discernimento em vez de informações,
  • nível necessário de autonomia para o aplicativo, e
  • prontidão para o campo de batalha.

Pela primeira vez, esses requisitos estabelecem a base para avaliar os programas militares de IA e definir o sucesso.

Combinar metodologias técnicas e doutrina de defesa

O desenvolvimento de medidas de eficácia (Mdd Efi) para programas militares de IA exige o mapeamento de metodologias técnicas e de pesquisa (por exemplo, teoria fundamentada) para a doutrina do DOD6. Sem esse mapeamento, a guerra algorítmica é reduzida ao processo de desenvolvimento de algoritmo, em vez de emprego operacional. Um algoritmo de visão computacional, por exemplo, projetado para detectar objetos em um vídeo (por exemplo, análise de inteligência geoespacial) é reduzido ao número de veículos que o modelo encontra ou com que precisão ele encontra esses veículos. O sucesso, então, é algo como: o algoritmo encontra veículos corretamente 85% do tempo.

Mas de que adianta detectar veículos 85% do tempo em uma campanha militar? É aqui que a preservação da integridade doutrinária introduz o contexto. Tomando o exemplo acima, o mesmo algoritmo é avaliado não pela frequência com que detecta veículos corretamente, mas sim seu impacto na missão: analistas identificam um veículo de interesse 95% mais rápido por causa do modelo. Essa abordagem relaciona a qualidade do algoritmo ao seu emprego na missão. Embora isso pareça lógico e a relação possa até ser representada de forma ambígua na documentação de projetos, não há, em lugar algum do DOD, um padrão único de representação.

Os critérios de avaliação ainda precisam permanecer independentes da solução (ou seja, os critérios se aplicam independentemente do tipo de inteligência, algoritmo usado, ambiente operacional ou requisitos de missão). Assim, para este estudo, os princípios da IA foram codificados em propriedades quantificáveis e indicadores que eram agnósticos de sistema e programa. Os critérios de avaliação também foram formulados seguindo princípios de ‘prosseguir ou não’ (go/no go) para criar uma hierarquia lógica de cima para baixo, equivalente à de publicações conjuntas relevantes. O resultado é uma linha de base para regular, monitorar e avaliar os sistemas de IA do DOD.

Uma estrutura para operacionalizar a inteligência artificial de defesa

Como afirmado anteriormente, IA operacionalizada é IA definida por cinco aspectos da utilidade para a missão: viabilidade mínima, capacidade de se adaptar a cenários desconhecidos e irreconhecíveis, priorização do discernimento em vez de informações, nível necessário de autonomia para a aplicação e prontidão no campo de batalha. Cada uma dessas Mdd Efi é fundamental para a guerra algorítmica7. A análise dessas informações resulta em uma estrutura abrangente de indicadores e efeitos para cada uma dessas Mdd Efi. Toda a estrutura é sustentada por definições e procedimentos doutrinários.

Uma tela mostra um sistema de reconhecimento de veículos e pessoas para segurança pública no dia 1o de novembro de 2017 durante a NVIDIA GPU Technology Conference em Washington, D.C. O congresso teve demonstrações de inteligência artificial, aprendizado profundo, realidade virtual e máquinas autônomas. (Foto: Saul Loeb, Agence France-Presse)

Medir a eficácia

O processo militar para medir a eficácia depende de uma arquitetura do tipo ‘prosseguir ou não’ e que seja de cima para baixo. Isso significa que uma medida existe apenas se cada indicador dessa medida também existir. Da mesma forma, um indicador estará presente apenas se todos os efeitos desse indicador também estiverem presentes8. É um processo binário, do tipo ‘tudo ou nada’, que pode ser aplicado à IA tão prontamente quanto à atividade militar convencional.

No caso convencional de análise de padrão de vida de alvo de alto valor (AAV), uma Mdd Efi definiria um resultado desejado de uma campanha militar (por exemplo, o AAV sai da área de responsabilidade [A Rspnl]). Todos os indicadores definidos dessa Mdd Efi devem ser atendidos de forma que o sucesso não possa ser determinado de forma arbitrária ou seletiva. Por exemplo, a inteligência deve indicar que (a) o AAV é detectado em uma nova A Respnl, (b) pessoas sabidamente associadas ao AAV são detectadas na nova A Respnl, e (c) o AAV adquire sistemas básicos de subsistência (por exemplo, habitação, transporte) na nova A Respnl. Os efeitos subsequentes seguem o mesmo processo: os efeitos que apoiam o indicador “a” podem incluir a identificação de assinaturas físicas conhecidas e a detecção de sinais de comunicação.

Portanto, embora as Mdd Efi convencionais e de IA difiram em sua execução tática, o sistema subjacente para validação de tomada de decisão é o mesmo. As Mdd Efi de IA só podem ser validadas se houver um entendimento básico do domínio da IA, da mesma forma que as Mdd Efi desenvolvidas pelo setor de inteligência não poderiam ser validadas pelas armas combatentes.

Descrever a eficácia

A guerra algorítmica é a guerra conduzida por meios artificialmente inteligentes. Os meios artificialmente inteligentes são aqueles que não são apenas inteligentes (coletando e utilizando informações), mas também artificiais (agem com base na inteligência de uma forma que os humanos não conseguem). Sem intervenção humana, os sistemas devem aprender como representar os dados por si próprios9. Outro termo para isso é aprendizado de máquina ou aprendizado automático. Existem diferentes tipos de aprendizado de máquina, mas quando se trata do campo de batalha, o aprendizado de máquina não supervisionado se tornará o padrão ouro devido à sua flexibilidade e capacidade de obter resultados de informações desconhecidas e não estruturadas10. Dentro desse padrão ouro, uma metodologia específica chamada aprendizado profundo é única em sua capacidade de representar problemas complexos com maior nível de precisão11. Dada a natureza dinâmica do campo de batalha, essa capacidade é fundamental.

Assim, a guerra algorítmica só pode ser ativada por (a) sistemas de trabalho (minimamente viáveis) capazes de (b) aprender por conta própria a partir de cenários desconhecidos e irreconhecíveis (não supervisionados) enquanto (c) convertem um ambiente de campo de batalha complexo em uma informação útil (por meio do aprendizado profundo) (d) com pouca ou nenhuma orientação (autônomos) e (e) em um ambiente de missão real (pronto para o campo de batalha). Essas Mdd Efi e a arquitetura mostrada na Figura são as primeiras etapas para operacionalizar a IA; elas estabelecem a base de como unir fatores técnicos e operacionais, ao mesmo tempo que padronizam o “sucesso” em qualquer programa de IA.

Figura. Medidas de eficácia para a guerra algorítmica (artificialmente inteligente). (Figura da autora)

Inteligência artificial operacional tem de funcionar

A viabilidade mínima testa se a guerra algorítmica muda positivamente o ambiente operacional. “Mudar positivamente o Amb Op” significa que existe uma vantagem competitiva e melhoria de desempenho que justificam o emprego da IA. Essa justificativa vem de métricas de limiar da indústria (fatores técnicos), classificação em relação a sistemas semelhantes e utilidade para o operador humano.

Usando a tradução como exemplo, um algoritmo de processamento de linguagem natural será minimamente viável se (1) as métricas de limiar da indústria confirmarem que o algoritmo traduziu com precisão as informações fornecidas por observação direta e para as línguas corretas, (2) o algoritmo superar outros algoritmos disponíveis na mesma classe técnica e Amb Op e (3) a tradução automática superar a tradução humana.

A vantagem competitiva e os fatores de melhoria de desempenho associados à viabilidade mínima são necessários porque, sem eles, a guerra não derivada de algoritmos seria mais eficaz, anulando a necessidade de IA operacionalizada.

Sistemas flexíveis e adaptáveis

Lembre-se de que algoritmos não supervisionados são ideais para missões reais devido à sua flexibilidade e capacidade de obter informações, mesmo em cenários desconhecidos12. Resumindo, os sistemas não supervisionados podem operar sem informações predeterminadas e aprender à medida que novas informações se tornam disponíveis.

Um equivalente convencional pode ser obtido a partir de um exemplo de confronto com o inimigo. Por exemplo, os militares enviados ao campo de batalha não sabem como um confronto armado vai se desenrolar até que termine. Ainda assim, espera-se que eles respondam apropriadamente ao fogo inimigo inesperado e tirem conclusões relevantes sobre novos deslocamentos e atividades adversárias.

Programas de guerra algorítmica bem-sucedidos precisarão exibir a mesma adaptabilidade dos militares em sua execução tática e capacidade de aprender com o tempo.

Reduzir a complexidade da missão

Vale lembrar que o aprendizado profundo reduz a complexidade13. A redução da complexidade em uma missão real diz respeito à forma como as informações são representadas e entendidas. Assim como acontece com os humanos, a guerra algorítmica eficaz é baseada na detecção de padrões, raciocínio e solução de problemas.

A detecção de padrões significa, essencialmente, adquirir conhecimento que pode então ser generalizado para prever cenários futuros desconhecidos. Suponha que um militar, que não seja de uma área de aviação, seja enviado para um aeródromo e veja um helicóptero sobrevoando. Essa pessoa percebe as características físicas exclusivas do helicóptero, como o tamanho geral ou seus rotores em tandem. As características exclusivas diferenciam o helicóptero de outras variações e, com o tempo, o militar pode selecionar o helicóptero correto dentro de uma frota inteira usando as dicas visuais aprendidas. A IA reconhece os padrões visuais da mesma maneira; as características do helicóptero são aprendidas repetidamente por meio de avistamentos subsequentes. Essas características são generalizadas para diferenciar um helicóptero de outro ou um helicóptero de um outro tipo de aeronave.

Assim como acontece com os humanos, a guerra algorítmica eficaz é baseada na detecção de padrões, raciocínio e solução de problemas.

O raciocínio refina essa aquisição de conhecimento para detectar sutilezas no ambiente e associá-las logicamente. Por exemplo, se os helicópteros nunca são vistos debaixo de certas condições meteorológicas, deduziria que elas (um elemento secundário do Amb Op) influenciam a capacidade de voar. Com a IA, o mau tempo acrescentaria uma confirmação secundária de que um objeto voador sem rotor não é um helicóptero.

Por último, a resolução sequencial de problemas divide um problema grande (por exemplo, como pilotar um helicóptero) em problemas menores (por exemplo, qual é a trajetória de voo, quanto combustível há disponível, quantos pilotos são necessários, etc.). Portanto, sem a redução da complexidade, a guerra algorítmica não teria a capacidade de converter informações em discernimento.

Operar com pouca ou nenhuma orientação

Visto que a guerra algorítmica pressupõe que meios não humanos sejam aproveitados, a IA deve compor e julgar linhas de ação de forma independente. E a IA tem de concluir esse julgamento com base em sua própria tomada de decisão, capacidade de resposta e consciência situacional.

A tomada de decisão é uma questão de desenvolver e resolver escolhas dentro do ambiente. Em um cenário convencional, um comandante diante de trajetórias conflitantes de voos de inteligência, vigilância e reconhecimento criaria uma matriz de priorização de meios e, em seguida, eliminaria os conflitos entre trajetórias com base em tais requisitos. Não se trata exclusivamente de produzir opções viáveis, mas também de descobrir quais dessas opções são mais benéficas para a missão. Para fazer isso, o sistema deve ser capaz de fundir os critérios de decisão (por exemplo, número de meios, requisitos de busca, tempos de voo, etc.), e sensores devem estar presentes para definir os critérios de decisão (por exemplo, medidores de combustível da aeronave ou pistas orais/fornecidas por pessoas). Em seguida, todas as opções disponíveis devem ser refinadas. Por último, o sistema deve reconhecer as mudanças no estado atual e responder às novas informações geradas por essas mudanças (ou seja, o tempo de um meio aéreo na estação está terminando, então a resolução de conflitos de voos não é mais necessária).

A capacidade de resposta complementa a capacidade de decisão. Sendo assim, o sistema pode responder apropriadamente a um cenário que nunca viu antes no tempo necessário? Para fazer isso, o sistema deve ter as funções necessárias para a consciência situacional: absorção, processamento, iteração e ação. Todos os indicadores juntos garantem que a IA operacionalizada melhora, não inibe, o tempo de decisão.

Levar a inteligência artificial para o mundo real

A prontidão para o campo de batalha é uma medida de se o sistema pode funcionar em espaços de missão real. Visto que as restrições de uma missão são vastas, a IA não pode ser desenvolvida em um laboratório sem previsão de como funcionará no mundo real. Para ser clara, as limitações da IA de laboratório não são contornadas pelo campo de batalha; elas são amplificadas. As arquiteturas abertas são restritas pela infraestrutura militar. Canais com múltipla compatibilidade enfrentam atrasos causados pelo caráter compartimentado dos sistemas existentes. A rede difusa de alta velocidade torna-se esporádica ou intermitente depois de implantada em áreas avançadas. E os especialistas sem habilitação de segurança e comumente disponíveis no setor comercial são substituídos por comunidades de usuários de acesso limitado com pouca ou nenhuma experiência em IA.

Visto que as restrições de uma missão são vastas, a IA não pode ser desenvolvida em um laboratório sem previsão de como funcionará no mundo real.

Em suma, a IA deve complementar, em vez de confundir, as operações em andamento. Abordar as restrições da missão desde o início deve incluir integração e comunicação com os sistemas existentes. Além disso, essa integração deve ser testada ou qualificada para que a utilidade e seus limites esquerdo/direito sejam testados e comprovados antes da implantação. Isso é similar ao que ocorre com os militares que são qualificados para o desdobramento ou, inversamente, como testes de aptidão com resultados insuficientes podem fazer com que o militar seja desqualificado.

Juntas, as cinco Mdd Efi para IA operacionalizada representam limites padrão para capacidades operacionais iniciais e totais (COI/COT). As determinações de COI/COT feitas usando as portas de decisão na estrutura da Mdd Efi acelerarão a adoção da IA e melhorarão o posicionamento dos EUA no domínio da guerra algorítmica.

Um objetivo do desenvolvimento da inteligência artificial militar é colocar soldados em rede diretamente com veículos não tripulados no campo de batalha em equipes homem-agente inteligente, que irão acelerar a coleta de informações, identificação de alvos e execução de missões de tiro. (Imagem: Exército dos EUA)

Recomendações

Sem uma estrutura para operacionalizar a IA em apoio à guerra algorítmica, os programas atuais do DOD irão falhar. A estrutura apresentada neste artigo é a primeira a definir o sucesso no espaço da IA de defesa e fornecerá as medidas de responsabilidade necessárias para a supervisão do governo.

Embora a intenção deste artigo seja oferecer uma solução geral para a guerra algorítmica, pesquisas adicionais são necessárias. Devem ser destinadas verbas à disseminação dessa estrutura para sistemas, disciplinas e programas específicos. Em apoio a esse esforço, o acesso a materiais classificados e à experimentação quantitativa de sistemas classificados serão críticos. A experimentação quantitativa não serviria apenas para validar a premissa deste artigo, mas também para começar a criar uma rede para comparar e melhorar os testes e avaliações de IA de defesa. Em suma, o uso contínuo e consistente da arquitetura de Mdd Efi em vários ambientes, sistemas e conjuntos de problemas alinharia os projetos de IA em uma única estrutura de avaliação comum. Para tanto, a arquitetura de Mdd Efi apresentada neste artigo oferece apoio a duas funções: (1) para se ter um sistema mais eficaz, melhorando iterativamente os resultados da porta de decisão ‘prosseguir ou não’ e (2) para decidir entre vários sistemas comparando as respectivas Mdd Efi.

Estrategicamente, a arquitetura delineada na figura deve ser integrada aos processos de aquisição, tecnologia e logística do DOD. Os paradigmas atuais não são construídos para o crescimento exponencial e a natureza não tradicional dos programas de IA. Calibrar soluções atuais e futuras de IA do DOD em torno dos critérios de avaliação prevalecentes permitirá a padronização ao mesmo tempo que acelera os demorados processos de aquisição. Além disso, as organizações responsáveis pelas atividades de IA do Exército como um todo devem padronizar a estrutura em seus esforços para uma transição mais rápida da pesquisa aplicada e desenvolvimento para o uso operacional.

Os esforços organizacionais não devem parar na questão de políticas. Atualmente, o DOD não tem nenhum mecanismo para alavancar militares para atividades de IA. Especificamente, não há uma qualificação militar relacionada à inteligência artificial e também nenhum sistema oficial para identificar e designar pessoal qualificado para programas de IA. O resultado é a falta de talentos híbridos disponíveis; isto é, pessoal versado em IA e na missão. Criar uma qualificação militar de ciência de dados ou voltada para a IA, semelhante ao que ocorreu no domínio cibernético, tornaria a operacionalização das capacidades de IA mais sustentável. Também aumentaria o pequeno grupo de profissionais de IA com habilitação de segurança para incluir um número crescente de militares qualificados. Alternativamente, as qualificações militares tradicionais poderiam se adaptar às características modernas da guerra. Por exemplo, analistas de inteligência de disciplinas específicas podem não ser relevantes em um mundo onde a fusão multi-inteligência é generalizada. Modificar ou adicionar identificadores de habilidades adicionais ou especializações de IA impediria o declínio da relevância das qualificações militares.

Taticamente, o impulso do Pentágono para a IA precisa ser acompanhado por um movimento de base para que as organizações adotantes não recebam simplesmente uma capacidade sem contexto. Em vez disso, elas devem ter uma voz ativa nas compensações que trazem para a luta. Os esforços de base podem incluir a realização de análises de impacto e testes de estresse no nível da unidade antes dos planos de design do COI/COT para entender as vulnerabilidades e priorizar os requisitos.

Conclusão

Operacionalizar a IA é um esforço inerentemente centrado na missão que deve fazer sentido taticamente para que haja impacto estratégico. Até que haja um retorno tangível sobre o investimento para as unidades na zona de combate, a hesitação generalizada em torno do valor da guerra algorítmica persistirá; como resultado, a superioridade tecnológica do adversário se tornará uma realidade cada vez mais invencível.

O DOD não pode continuar a executar programas de IA sem uma estrutura para operacionalizá-los14. A arquitetura apresentada neste artigo faz exatamente isso, acelerando e padronizando os esforços do governo para desenvolver recursos de IA por meio de tecnologia altamente inventiva e operacionalmente atraente15.


Referências

  1. U.S. Deputy Secretary of Defense Memorandum, “Establishment of an Algorithmic Warfare Cross-Functional Team (Project Maven)”, 26 April 2017, acesso em 4 mar. 2020, https://www.govexec.com/media/gbc/docs/pdfs_edit/establishment_of_the_awcft_project_maven.pdf; Andrew Ilachinski, “AI, Robots, and Swarms: Issues, Questions, and Recommended Studies” (Arlington, VA: CNA, January 2017), acesso em 4 mar. 2020, https://www.cna.org/CNA_files/PDF/DRM-2017-U-014796-Final.pdf.
  2. Defense Science Board, Report of the Defense Science Board Summer Study on Autonomy (Washington, DC: Department of Defense, June 2016), table 1, acesso em 11 mar. 2020, https://www.hsdl.org/?view&did=794641; Unmanned Systems Integrated Roadmap, FY2013-2038 (Washington, DC: Department of Defense, 2013), acesso em 5 mar. 2020, https://archive.defense.gov/pubs/DOD-USRM-2013.pdf.
  3. Jesse Ellman, Lisa Samp, and Gabriel Coll, Assessing the Third Offset Strategy (Washington, DC: Center for Strategic and International Studies, March 2017), p. 6-8, acesso em 5 mar. 2020, https://csis-prod.s3.amazonaws.com/s3fs-public/publication/170302_Ellman_ThirdOffsetStrategySummary_Web.pdf; Peter Stone et al., Artificial Intelligence and Life in 2030: One Hundred Year Study on Artificial Intelligence (Stanford, CA: Stanford University, September 2016), acesso em 5 mar. 2020, https://ai100.stanford.edu/2016-report; U.S. Army Training and Doctrine Command (TRADOC) Pamphlet (TP) 525-3-1, The U.S. Army Operating Concept: Win in a Complex World, 2020-2040 (Fort Eustis, VA: TRADOC, 2014 [obsolete]), superseded by TP 525-3-1, The U.S. Army in Multi-Domain Operations 2028 (Fort Eustis, VA: TRADOC, 6 December 2018), acesso em 5 mar. 2020, http://www.tradoc.army.mil/tpubs/pams/tp525-3-1.pdf.
  4. Advancing the Science and Acceptance of Autonomy for Future Defense Systems: Hearing Before the Subcommittee on Emerging Threats and Capabilities of the Comm. on Armed Services, 114th Cong. 1 (2015), acesso em 5 mar. 2020, https://www.hsdl.org/?view&did=793840; U.S. Army Capabilities Integration Center, Robotic and Autonomous Systems Strategy (Fort Eustis, VA: TRADOC, March 2017), acesso em 5 mar. 2020, https://www.tradoc.army.mil/Portals/14/Documents/RAS_Strategy.pdf; Defense Science Board, Report of the Defense Science Board Summer Study on Autonomy; Executive Office of the President, Preparing for the Future of Artificial Intelligence (Washington, DC: Office of Science and Technology, October 2016), acesso em 5 mar. 2020, https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf.
  5. Defense Science Board, Report of the Defense Science Board Summer Study on Autonomy.
  6. Yoshua Bengio, Aaron Courville, and Pascal Vincent, “Representation Learning: A Review and New Perspectives” (Ithaca, NY: Cornell University, 23 April 2014), acesso em 5 mar. 2020, https://arxiv.org/pdf/1206.5538.pdf; Li Deng, “Three Classes of Deep Learning Architectures and Their Applications: A Tutorial Survey” (New York: Asia-Pacific Signal and Information Processing Association Transactions on Signal and Information Processing, January 2012), acesso em 5 mar. 2020, https://pdfs.semanticscholar.org/5bd4/177440c17dad736f1e0d2227694d612f5a59.pdf; Francesco Gagliardi, “The Necessity of Machine Learning and Epistemology in the Development of Categorization Theories: A Case Study in Prototype-Exemplar Debate”, in AI*IA 2009: Emergent Perspectives in Artificial Intelligence, Lecture Notes in Computer Science series, ed. Roberto Serra and Rita Cucchiara, vol. 5883 (Berlin: Springer, 2009), p. 182-91; Geoffrey E. Hinton et al., “Improving Neural Networks by Preventing Co-adaptation of Feature Detectors” (Ithaca, NY: Cornell University, 2012), acesso em 5 mar. 2020, https://arxiv.org/abs/1207.0580; Nikolaus Kriegeskorte, “Deep Neural Networks: A New Framework for Modeling Biological Vision and Brain Information Processing”, Annual Review of Vision Science 1 (2015): p. 417-46; Rufin VanRullen, “Perception Science in the Age of Deep Neural Networks”, Frontiers in Psychology 8 (2 February 2017); Melanie Birks and Jane Mills, Grounded Theory: A Practical Guide, 2nd ed. (New York: Sage, 2015); Kathy Charmaz, Constructing Grounded Theory (London: Sage, 2014), acesso em 5 mar. 2020, http://www.sxf.uevora.pt/wp-content/uploads/2013/03/Charmaz_2006.pdf.
  7. Chairman of the Joint Chiefs of Staff, The National Military Strategy of the United States of America, 2015 (Washington, DC: Joint Chiefs of Staff, 2015), acesso em 5 mar. 2020, https://www.jcs.mil/Portals/36/Documents/Publications/2015_National_Military_Strategy.pdf.
  8. TP 525-3-1, The U.S. Army Operating Concept, p. 21; Richard K. Bullock, “Theory of Effectiveness Measurement” (PhD diss., Air Force Institute of Technology, 2006), p. 58, acesso em 5 mar. 2020, http://www.dtic.mil/dtic/tr/fulltext/u2/a472028.pdf; Army Doctrine Reference Publication (ADRP) 1-02, OperationalTerms and Military Symbols (Washington, DC: U.S. Government Printing Office, 2012 [obsolete]), superseded by ADRP 1-02, Terms and Military Symbols, 24 September 2013; Chairman of the Joint Chiefs of Staff, The National Military Strategy of the United States of America, 2015.
  9. Arthur L. Samuel, “Some Studies in Machine Learning Using the Game of Checkers”, IBM Journal of Research and Development 3, no. 3 (1959): p. 210-29; Jürgen Schmidhuber, “Deep Learning in Neural Networks: An Overview”, Neural Networks 61 (January 2015): p. 85-117.
  10. Alain Droniou, Serena Ivaldi, and Olivier Sigaud, “Deep Unsupervised Network for Multimodal Perception, Representation and Classification”, Robotics and Autonomous Systems 71 (September 2015): p. 83-98; Mehryar Mohri, Afshin Rostamizadeh, and Ameet Talwalkar, Foundations of Machine Learning (Cambridge, MA: MIT Press, 2012), acesso em 5 mar. 2020, https://mitpress.mit.edu/books/foundations-machine-learning; Kriegeskorte, “Deep Neural Networks”.
  11. Volodymyr Mnih et al., “Human-Level Control Through Deep Reinforcement Learning”, Nature 518, no. 7540 (26 February 2015): p. 529-33; Deng, “Three Classes of Deep Learning Architectures and Their Applications”; Kriegeskorte, “Deep Neural Networks”; Schmidhuber, “Deep Learning in Neural Networks”.
  12. Droniou et al., “Deep Unsupervised Network”; Kriegeskorte, “Deep Neural Networks”; Mnih et al., “Human-Level Control”.
  13. Deng, “Three Classes of Deep Learning”; Kriegeskorte, “Deep Neural Networks”; Schmidhuber, “Deep Learning in Neural Networks”.
  14. Stew Magnuson, “DOD Making Big Push to Catch Up on Artificial Intelligence”, National Defense (site), 13 June 2017, acesso em 5 mar. 2020, https://www.nationaldefensemagazine.org/articles/2017/6/13/dod-making-big-push-to-catch-up-on-artificial-intelligence; JASON [advisory group], Perspectives on Research in Artificial Intelligence and Artificial General Intelligence Relevant to DOD (McLean, VA: MITRE Corporation, January 2017), acesso em 5 mar. 2020, https://apps.dtic.mil/dtic/tr/fulltext/u2/1024432.pdf.
  15. Mark A. Milley, Memorandum for all Army leaders, “Army Readiness Guidance, Calendar Year 2016-17”, 20 January 2016, acesso em 5 mar. 2020, https://www.army.mil/e2/downloads/rv7/standto/docs/army_readiness_guidance.pdf; U.S. Army Capabilities Integration Center, Robotic and Autonomous Systems Strategy; Defense Science Board, “Report on the Defense of the Science Board”; TP 525-3-1, The U.S. Army Operating Concept; Noel Sproles, “Coming to Grips with Measures of Effectiveness”, Systems Engineering 3, no. 1 (2000): p. 50-58.

Courtney Crosby, Ph.D., é a cientista-chefe do Grupo de Inovação Estratégica da Booz Allen Hamilton. Ela tem doutorado em Ciências da Decisão, com foco em sistemas de inteligência artificial de campo de batalha para o Departamento de Defesa. Crosby atuou em funções de apoio em várias missões no exterior. Em sua função atual, ela lidera a operacionalização e inovação da IA no domínio militar C5ISR. Sua experiência anterior inclui pesquisa e desenvolvimento de capacidades emergentes e análise de ciências sociais relevantes para a formação de equipes homem-máquina.

Voltar ao início