Revista Profesional del Ejército de EUA

Edición Hispanoamericana

Primer Trimestre 2021

Facebook Twitter LinkedIn Email App

Operativizar la inteligencia artificial para la guerra algorítmica

Dra. Courtney Crosby

Descargar PDF Descargar PDF

Infantes de marina del Comando de Fuerzas del Ciberespacio realizan operaciones informáticas el 5 de febrero de 2020 en el centro de operaciones cibernéticas en Lasswell Hall, Fort Meade, Maryland. Los infantes de marina llevan a cabo operaciones cibernéticas ofensivas y defensivas en apoyo del Comando Cibernético de EUA y operan, protegen y defienden la Red Empresarial del Cuerpo de Infantería de Marina. (Foto: Sargento 2o Jacob Osborne, Infantería de Marina de EUA. La foto ha sido modificada.)

Un conflicto puede ganarse o perderse según los compensadores (offsets) militares, medios con los cuales las unidades de defensa pueden combatir asimétricamente las ventajas del adversario. En medio de una competencia entre grandes potencias, adversarios con tecnología superior y teatros de combate cada vez más grandes, los compensadores convencionales a menudo son mejorados por la inteligencia artificial (IA)1. Sin embargo, la capacidad del Departamento de Defensa (Deparment of Defense – DoD) para operativizar la IA es incipiente2. Los programas iniciales de IA adoptados por el Pentágono se centran principalmente en la transferencia de capacidades comerciales al sector de la defensa y enfatizan el rendimiento técnico en detrimento de las funciones operacionales relevantes3. Como resultado, los proyectos piloto iniciales no han podido implementarse en ambientes operacionales (AO) reales.

Operativizar la inteligencia artificial

Para operativizar la IA es necesario comprender que esto no es un estado final, sino más bien una forma de lograr una ventaja militar. Con ese fin, durante la ejecución técnica de las metodologías relacionadas con la IA se debe tener en cuenta el AO. Esta consideración diverge del pensamiento tradicional porque las soluciones de la IA suelen elaborarse para alcanzar un determinado umbral estadístico (p. ej., memoria, precisión) en lugar de un objetivo militar (p. ej., aumento de la distancia de seguridad)4.

Esta dinámica se complica aún más con el término «guerra algorítmica», en el cual las características técnicas y militares se utilizan indistintamente. La guerra algorítmica procura reducir el número de combatientes en peligro, aumentar la velocidad de decisión en operaciones en las que el tiempo es crítico y operar cuando y donde los humanos no pueden hacerlo5. Sin embargo, ninguno de esos objetivos se relaciona con las matemáticas o la informática; se basan directamente en los estados finales militares. El problema es que el puente entre la ciencia, la tecnología, la ingeniería, las disciplinas matemáticas y los estados finales militares nunca se estableció antes de que el Pentágono emprendiera su trayectoria de IA.

El puente deseado es un marco para guiar y evaluar la operativización de la IA, con el rendimiento del algoritmo por un lado y la utilidad para la misión por el otro. Esa combinación garantiza que las ecuaciones matemáticas puedan probar o validar numéricamente un sistema de IA mientras que los puntos de referencia cualitativos garantizan la aplicación práctica. El resultado es una guerra algorítmica basada no solo en estadísticas, sino en una arquitectura más amplia para la relevancia operacional. Esa relevancia comprende cinco requisitos:

  • viabilidad mínima,
  • capacidad para adaptarse a escenarios desconocidos e incognoscibles,
  • priorización del conocimiento sobre la información,
  • nivel de autonomía necesario para su aplicación y
  • apresto para el campo de batalla.

Por primera vez, estos requisitos sientan las bases para evaluar los programas militares de IA y definir el éxito.

Combinar las metodologías técnicas y la doctrina de defensa

Para desarrollar medidas de eficacia (ME) para los programas militares de IA, la investigación y las metodologías técnicas (p. ej., la teoría fundamentada) necesitan tener en cuenta la doctrina del DoD6. Sin esta consideración, la guerra algorítmica se convierte en simplemente un proceso de desarrollo de algoritmos sin utilidad operacional. Por ejemplo, un algoritmo de visión computarizada diseñado para detectar objetos en un vídeo (p. ej., análisis de inteligencia geoespacial) se limita al número de vehículos que encuentra o la precisión con la que lo hace. El algoritmo podría considerarse un éxito entonces si identifica correctamente los vehículos el 85 por ciento de las veces.

¿Pero, de que sirve identificar vehículos el 85 por ciento de las veces en una campaña militar? Aquí es donde la doctrina introduce el contexto. Tomando el ejemplo anterior, el mismo algoritmo se evaluaría no por la frecuencia con la que detecta correctamente los vehículos, sino por su impacto en la misión (p. ej., los analistas pueden identificar un vehículo de interés un 95 por ciento más rápido gracias al modelo). Este enfoque demuestra mejor la utilidad del algoritmo para la misión. Aunque esta noción pueda parecer algo lógico, no hay un estándar de evaluación similar en todo el DoD.

Los criterios de evaluación deben ser independientes de la solución (es decir, los criterios se aplican independientemente del tipo de inteligencia, el algoritmo utilizado, el ambiente operacional en el que se aplican o los requisitos de la misión). Por ello, para esta investigación, los principios de la IA se codificaron en propiedades e indicadores cuantificables independientes del sistema o programa. Los criterios de evaluación también se formularon al estilo de pruebas go-no-go de manera que se pudiera crear una jerarquía lógica y vertical que siguiera de cerca las publicaciones doctrinales pertinentes. El resultado fue la creación de un estándar para regular, monitorear y evaluar los sistemas de IA del DOD.

Un marco para operativizar la inteligencia artificial de defensa

Como se mencionó anteriormente, la IA operativizada es la IA definida por cinco aspectos de su utilidad para la misión: viabilidad mínima, capacidad de adaptación a escenarios desconocidos e incognoscibles, prioridad del conocimiento sobre la información, autonomía necesaria para su aplicación y apresto para el campo de batalla. Cada una de estas ME es fundamental para la guerra algorítmica7. El análisis de esta información da lugar a un marco completo de indicadores y efectos para cada una de esas ME. Todo el marco se fundamenta en definiciones doctrinales y procedimientos.

Una pantalla muestra un sistema de reconocimiento de vehículos y personas utilizado por las fuerzas del orden el 1 de noviembre de 2017 durante la Conferencia de Tecnología NVIDIA GPU en Washington, D.C. En la conferencia se exhibieron la inteligencia artificial, el aprendizaje profundo, la realidad virtual y máquinas autónomas. (Foto: Saul Loeb, Agencia France-Presse)

Medir la eficacia

El proceso militar para medir la eficacia se basa en una arquitectura vertical de tipo go-no-go. Esto significa que una medida solo existe si cada uno de los indicadores de esa medida también existe. Del mismo modo, un indicador solo existe si todos los efectos de ese indicador también están presentes8. Es un proceso binario de todo o nada que puede aplicarse a la IA tan fácilmente como a la actividad militar convencional.

En el caso convencional del análisis del patrón de vida de un objetivo de alto valor (OAV), una ME definiría un solo resultado deseado de la campaña militar (p. ej., el OAV sale del área de responsabilidad [AR]). Todos los indicadores definidos de ese OAV deben cumplirse para que el éxito no pueda definirse arbitraria o selectivamente. Por ejemplo, los medios de inteligencia deben indicar que: (a) el OAV ha sido detectado en una nueva AR, (b) los asociados conocidos del OAV han sido detectados en la nueva AR y (c) el OAV ha adquirido sistemas básicos de subsistencia (p. ej., vivienda, transporte) en la nueva AR. Los efectos posteriores siguen el mismo proceso: los efectos que apoyan el indicador «a» pueden incluir la identificación de huellas físicas conocidas y la detección de señales de comunicación.

Si bien las ME convencionales y las ME de la IA difieren en su ejecución táctica, el sistema subyacente para la validación de la toma de decisiones es el mismo. Las ME de IA solo pueden ser validadas si existe una comprensión básica del dominio de la IA, de manera muy similar a como las ME desarrolladas por la rama de inteligencia no podrían ser validadas por las armas de combate.

Describir la eficacia

La guerra algorítmica es la guerra llevada a cabo a través de medios artificialmente inteligentes. Los medios artificialmente inteligentes son aquellos que no solo son inteligentes (adquieren y aplican conocimientos), sino también artificiales (utilizan la inteligencia de una manera que los humanos no pueden). Sin la intervención humana, los sistemas deben aprender a representar los datos por sí mismos9. Esto también es llamado aprendizaje automático. Existen diferentes tipos de aprendizaje automático, pero cuando se trata del campo de batalla, el aprendizaje automático no supervisado se convertirá en el estándar de oro debido a su flexibilidad y capacidad para proporcionar resultados a partir de información desconocida y no estructurada10. Dentro de este estándar de oro, una metodología específica llamada aprendizaje profundo es única en su capacidad para representar problemas complejos con mayor precisión11. Dada la naturaleza dinámica del campo de batalla, la capacidad de representar problemas complejos con mayor precisión es fundamental.

Por lo tanto, la guerra algorítmica solo puede librarse mediante: (a) sistemas operativos (mínimamente viables) capaces de (b) aprender por sí mismos en escenarios desconocidos e incognoscibles (sin supervisión) y (c) extraer datos útiles (habilitados por el aprendizaje profundo) de campos de batallas complejos (d) con poca o ninguna orientación (autónomos) y (e) en un ambiente de misión real (listo para el campo de batalla). Estas ME y la arquitectura de la figura son los primeros pasos para operativizar la IA y constituyen la base sobre cómo combinar los factores técnicos y operacionales y estandarizar lo que es el «éxito» en los programas de IA.

Figura. Medidas de eficacia para la guerra algorítmica (artificialmente inteligente). (Figura del autor)

La inteligencia artificial operacional tiene que funcionar

La viabilidad mínima prueba si la guerra algorítmica cambia de forma positiva el ambiente operacional. «Cambiar positivamente el AO» significa que existe una ventaja competitiva y una mejora del rendimiento que justifica el uso de la IA. Esa justificación procede de las métricas de la industria (factores técnicos), comparación con sistemas similares y la utilidad para el operador humano.

En la traducción, por ejemplo, un algoritmo de procesamiento de lenguaje natural sería mínimamente viable si: 1) las métricas de la industria confirman que traduce con precisión los datos de escenarios reales en los idiomas correctos, 2) el algoritmo es mejor que otros algoritmos disponibles en la misma clase técnica y AO, y 3) la traducción automática es mejor que la de un humano.

La ventaja competitiva y los factores de mejora de rendimiento asociados a la viabilidad mínima son necesarios porque sin ellos, la guerra no algorítmica sería más eficaz y no habría necesidad de operativizar la IA.

Sistemas adaptables y flexibles

Hay que recordar que los algoritmos no supervisados son ideales para las misiones debido a su flexibilidad y capacidad para generar conocimientos incluso en escenarios desconocidos12. En resumen, los sistemas no supervisados pueden operar sin información predeterminada y aprender a medida que se dispone de nueva información.

Un combate sirve de equivalente convencional. Por ejemplo, los soldados no saben cómo acabará un intercambio de fuego hasta después de que haya terminado. Sin embargo, se espera que respondan adecuadamente al fuego enemigo sin previo aviso y que saquen conclusiones pertinentes sobre los nuevos movimientos y actividades del adversario.

Los programas de guerra algorítmica eficaces necesitarán exhibir la misma adaptabilidad de los soldados en su ejecución táctica y la habilidad de aprender con el tiempo.

Reducir la complejidad de la misión

El aprendizaje profundo reduce la complejidad13. Reducir la complejidad en una misión real se refiere a cómo se representa y se comprende la información. Al igual que con los humanos, la guerra algorítmica eficaz se basa en la detección de patrones, el razonamiento y la resolución de problemas.

La detección de patrones es esencialmente adquirir conocimientos que pueden luego generalizarse para predecir futuros escenarios desconocidos. Supongamos que un soldado que no es de la rama de aviación se encuentra en un aeródromo y ve un helicóptero volando. Esa persona nota las características físicas únicas del helicóptero, como su tamaño o un rotor en tándem. Las características únicas diferencian al helicóptero de otras variantes y, con el tiempo, el soldado podrá identificar el helicóptero en una flota usando las características visuales aprendidas. La IA reconoce los patrones visuales de manera muy similar; las características del helicóptero se aprenden mientras más sea observado. Luego, esas características se generalizan para diferenciar un helicóptero de otro o un helicóptero de algo que no lo es.

El razonamiento refina esa adquisición de conocimientos para detectar las sutilezas del entorno y asociarlas lógicamente. Por ejemplo, si nunca se ven helicópteros en ciertas condiciones meteorológicas, el razonamiento permitirá deducir que el clima (un elemento secundario del AO) influye en la capacidad de volar. Con la IA, el mal tiempo añadiría una confirmación secundaria de que un objeto volador sin rotor no es un helicóptero.

Finalmente, la resolución secuencial de problemas divide un gran problema (p. ej., cómo volar un helicóptero) en problemas más pequeños (p. ej., cuál es la trayectoria de vuelo, cuánto combustible queda, cuántos pilotos se necesitan, etc.). Si no reduce la complejidad, la guerra algorítmica no podría convertir la información en conocimiento.

Operar con poca o ninguna orientación

Dado que en la guerra algorítmica se supone que no hay intervención humana, la IA debe elaborar y determinar de forma independiente sus cursos de acción. Para ello, la IA se basa en su propia toma de decisiones, capacidad de respuesta y conciencia situacional.

La toma de decisiones es una cuestión de desarrollar y resolver opciones dentro del ambiente. En un ambiente convencional, un comandante que tiene que lidiar con rutas de vuelo de inteligencia, vigilancia y reconocimiento en conflicto desarrollaría una matriz de priorización de medios y luego armonizaría el uso del espacio aéreo basándose en esos requisitos. No se trata exclusivamente de producir opciones viables, sino también de determinar cuál de esas opciones es la más beneficiosa para la misión en general. Para ello, el sistema debe ser capaz de fusionar los criterios de decisión (p. ej., el número de medios, los requisitos de recopilación, los tiempos de vuelo, etc.). Los sensores deben estar presentes para definir los criterios de decisión (p. ej., indicadores de combustible o señales humanas/verbales). Luego, todas las opciones disponibles tienen que ser podadas. Por último, el sistema tiene que reconocer los cambios en el estado actual y responder a la nueva información generada por ese cambio (p. ej., el tiempo de permanencia de un medio aéreo en la estación está terminando, por lo que ya no es necesario armonizar su uso del espacio aéreo).

La capacidad de respuesta complementa la capacidad de decisión. Es decir, ¿puede el sistema responder apropiadamente a un escenario que nunca ha visto antes en el plazo requerido? Para ello, el sistema debe tener las funciones necesarias para la conciencia situacional: ingestión, procesamiento, iteración y acción. Todos los indicadores juntos aseguran que la IA operativizada mejore los plazos de decisión en vez de inhibirlos.

«

Dado que las limitaciones en una misión son enormes, la IA no puede desarrollarse en un laboratorio sin reflexionar sobre cómo funcionará en el mundo real.

»

Llevar la inteligencia artificial al mundo real

El apresto para el campo de batalla es una medida de si el sistema puede funcionar en una misión real. Dado que las limitaciones en una misión son enormes, la IA no puede desarrollarse en un laboratorio sin reflexionar sobre cómo funcionará en el mundo real. Para ser clara, las limitaciones de la IA de laboratorio no son evadidas en el campo de batalla, sino que se amplifican. Las arquitecturas abiertas están restringidas por la infraestructura militar. Los canales compatibles están obstruidos por sistemas antiguos aislados. Las redes omnipresentes de alta velocidad se vuelven esporádicas o intermitentes una vez que se despliegan hacia el frente. Y los expertos en IA, comunes en el sector comercial, son reemplazados por comunidades de usuarios con acceso limitado y con poca o ninguna experiencia en IA.

En resumen, la IA debe complementar, en lugar de dificultar, las operaciones en curso. Para hacer frente a las limitaciones de la misión desde el principio es necesario integrarse y comunicarse con los sistemas existentes. Esa integración debe probarse o calificarse de modo que la utilidad, y sus límites, se examinen antes del despliegue. Esto es muy parecido a lo que ocurre con el personal militar, que es evaluado antes de ir a un despliegue, por ejemplo, mediante una prueba física.

Juntas, las cinco ME para la IA operativizada representan estándares para las capacidades operacionales iniciales y totales (COI/COT). Las decisiones que se tomen sobre las COI/COT utilizando el método de decisión del marco de las ME acelerarán la adopción de la IA y mejorarán la posición de Estados Unidos en el campo de la guerra algorítmica.

Uno de los objetivos del desarrollo de la inteligencia artificial militar es conectar en red a los soldados directamente con vehículos no tripulados en el campo de batalla para formar equipos compuestos por humanos y agentes inteligentes que puedan acelerar la recopilación de información, la identificación de objetivos y la ejecución de misiones de fuego. (Ilustración: Ejército de EUA)

Recomendaciones

Sin un marco para operativizar la IA en apoyo de la guerra algorítmica, los programas actuales del DoD fracasarán. El marco presentado en este artículo es el primero en definir el éxito en el ámbito de la IA de defensa y proporcionará las medidas de evaluación necesarias para el Gobierno.

Aunque la intención de este artículo es proporcionar una solución compatible a la guerra algorítmica, es necesario investigar más. Se deben destinar fondos para aplicar este marco a sistemas, disciplinas y programas específicos. En apoyo de ese esfuerzo, el acceso tanto a materiales clasificados como a la experimentación cuantitativa de sistemas clasificados será fundamental. La experimentación cuantitativa no solo serviría para validar la premisa de este artículo, sino también para empezar a crear una red para comparar y mejorar las pruebas y la evaluación de la IA de defensa. Es decir, el uso continuado y coherente de la arquitectura de las ME a través de múltiples ambientes, sistemas y conjuntos de problemas alinearía los proyectos de IA bajo un marco de evaluación único y común. Con ese fin, la arquitectura de las ME presentada en este artículo apoya dos funciones: 1) lograr un sistema más eficaz mejorando iterativamente los resultados de las pruebas de go-no-go y 2) decidir entre varios sistemas comparando sus respectivas ME.

Estratégicamente, la arquitectura descrita en la figura debe integrarse en los procesos de adquisición, tecnología y logística del DoD. Los paradigmas actuales no están construidos para el crecimiento exponencial y la naturaleza no tradicional de los programas de IA. Calibrar las soluciones actuales y futuras de IA del DoD según los criterios de evaluación prevalecientes permitirá la estandarización y a la vez acelerará los procesos de adquisición que consumen mucho tiempo. Asimismo, las organizaciones responsables de las actividades institucionales de IA deberían estandarizar el marco en todos sus esfuerzos para lograr una transición más rápida de la investigación y el desarrollo al uso operacional.

Sin embargo, los esfuerzos institucionales no deben parar en la formulación de políticas. Actualmente, el DoD no tiene ningún mecanismo para utilizar personal militar en actividades de inteligencia artificial. Específicamente, no hay una especialidad ocupacional militar (EOM) relacionada con la inteligencia artificial y tampoco hay un sistema oficial para identificar y asignar personal calificado a los programas de IA. Esto resulta en una falta de talento híbrido disponible, es decir, personal con experiencia en tanto la IA como en despliegues operacionales. Crear una EOM de ciencia de datos orientada a la IA, similar a lo que ocurrió en el dominio cibernético, haría más viable la operativización de la IA. También aumentaría el pequeño grupo de profesionales de inteligencia artificial con un número cada vez mayor de personal militar calificado. Otra posibilidad es adaptar las EOM tradicionales a las características modernas de la guerra. Por ejemplo, los analistas de inteligencia de disciplinas específicas podrían ser irrelevantes en un mundo en el que la fusión de múltiples fuentes de inteligencia es común. Modificar o añadir identificadores o especialidades de inteligencia artificial frenaría el declive de relevancia de algunas EOM.

Tácticamente, los esfuerzos del Pentágono para impulsar la IA deben ser respaldados por las organizaciones que ya usan la IA para que las organizaciones que la adopten en el futuro no reciban simplemente una herramienta sin contexto. Las organizaciones que ya usan la IA deberían tener una voz activa en las ventajas que ofrece esta tecnología en el combate. Por ejemplo, se podrían proporcionar análisis de impacto y pruebas de estrés a nivel de unidad antes de elaborar los planes de diseño de las COI/COT para comprender las vulnerabilidades y priorizar los requisitos.

Conclusión

Operativizar la IA es un esfuerzo inherentemente centrado en la misión que debe tener sentido tácticamente para que haya algún impacto estratégico. Hasta que las unidades en el terreno no reporten resultados tangibles, persistirán las dudas sobre el valor de la guerra algorítmica, y como resultado, la superioridad del adversario en este campo dará lugar a una realidad en la que será difícil ganarle.

El DoD no puede seguir invirtiendo en programas de IA sin un marco para operativizarlos14. La arquitectura presentada en este artículo hace precisamente eso, acelerando y estandarizando los esfuerzos del Gobierno para desarrollar las capacidades de IA mediante una tecnología altamente inventiva y atractiva desde el punto de vista operacional15.


Notas

  1. U.S. Deputy Secretary of Defense Memorandum, «Establishment of an Algorithmic Warfare Cross-Functional Team (Project Maven)», 26 de abril de 2017, accedido 4 de marzo de 2020, https://www.govexec.com/media/gbc/docs/pdfs_edit/establishment_of_the_awcft_project_maven.pdf; Andrew Ilachinski, «AI, Robots, and Swarms: Issues, Questions, and Recommended Studies» (Arlington, VA: CNA, enero de 2017), accedido 4 de marzo de 2020, https://www.cna.org/CNA_files/PDF/DRM-2017-U-014796-Final.pdf.
  2. Defense Science Board, Report of the Defense Science Board Summer Study on Autonomy (Washington, DC: Department of Defense, junio de 2016), tabla 1, accedido 11 de marzo de 2020, https://www.hsdl.org/?view&did=794641; Unmanned Systems Integrated Roadmap, FY2013–2038 (Washington, DC: Department of Defense, 2013), accedido 5 de marzo de 2020, https://archive.defense.gov/pubs/DOD-USRM-2013.pdf.
  3. Jesse Ellman, Lisa Samp y Gabriel Coll, Assessing the Third Offset Strategy (Washington, DC: Center for Strategic and International Studies, marzo de 2017), 6–8, accedido 5 de marzo de 2020, https://csis-prod.s3.amazonaws.com/s3fs-public/publication/170302_Ellman_ThirdOffsetStrategySummary_Web.pdf; Peter Stone et al., Artificial Intelligence and Life in 2030: One Hundred Year Study on Artificial Intelligence (Stanford, CA: Stanford University, septiembre de 2016), accedido 5 de marzo de 2020, https://ai100.stanford.edu/2016-report; U.S. Army Training and Doctrine Command (TRADOC) Pamphlet (TP) 525-3-1, The U.S. Army Operating Concept: Win in a Complex World, 2020–2040 (Fort Eustis, VA: TRADOC, 2014 [obsoleto]), reemplazado por el TP 525-3-1, The U.S. Army in Multi-Domain Operations 2028 (Fort Eustis, VA: TRADOC, 6 de diciembre de 2018), accedido 5 de marzo de 2020, http://www.tradoc.army.mil/tpubs/pams/tp525-3-1.pdf.
  4. Advancing the Science and Acceptance of Autonomy for Future Defense Systems: Hearing Before the Subcommittee on Emerging Threats and Capabilities of the Comm. on Armed Services, 114o Cong. 1 (2015), accedido 5 de marzo de 2020, https://www.hsdl.org/?view&did=793840; U.S. Army Capabilities Integration Center, Robotic and Autonomous Systems Strategy (Fort Eustis, VA: TRADOC, marzo de 2017), accedido 5 de marzo de 2020, https://www.tradoc.army.mil/Portals/14/Documents/RAS_Strategy.pdf; Defense Science Board, Report of the Defense Science Board Summer Study on Autonomy; Executive Office of the President, Preparing for the Future of Artificial Intelligence (Washington, DC: Office of Science and Technology, octubre de 2016), accedido 5 de marzo de 2020, https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf.
  5. Defense Science Board, Report of the Defense Science Board Summer Study on Autonomy.
  6. Yoshua Bengio, Aaron Courville y Pascal Vincent, «Representation Learning: A Review and New Perspectives» (Ithaca, NY: Cornell University, 23 de abril de 2014), accedido 5 de marzo de 2020, https://arxiv.org/pdf/1206.5538.pdf; Li Deng, «Three Classes of Deep Learning Architectures and Their Applications: A Tutorial Survey» (Nueva York: Asia-Pacific Signal and Information Processing Association Transactions on Signal and Information Processing, enero de 2012), accedido 5 de marzo de 2020, https://pdfs.semanticscholar.org/5bd4/177440c17dad736f1e0d2227694d612f5a59.pdf; Francesco Gagliardi, «The Necessity of Machine Learning and Epistemology in the Development of Categorization Theories: A Case Study in Prototype-Exemplar Debate», en AI*IA 2009: Emergent Perspectives in Artificial Intelligence, Lecture Notes in Computer Science series, ed. Roberto Serra y Rita Cucchiara, vol. 5883 (Berlin: Springer, 2009), 182–91; Geoffrey E. Hinton et al., «Improving Neural Networks by Preventing Co-adaptation of Feature Detectors» (Ithaca, NY: Cornell University, 2012, accedido 5 de marzo de 2020, https://arxiv.org/abs/1207.0580); Nikolaus Kriegeskorte, «Deep Neural Networks: A New Framework for Modeling Biological Vision and Brain Information Processing», Annual Review of Vision Science 1 (2015): 417–46; Rufin VanRullen, «Perception Science in the Age of Deep Neural Networks», Frontiers in Psychology 8 (2 de febrero de 2017); Melanie Birks y Jane Mills, Grounded Theory: A Practical Guide, 2a ed. (Nueva York: Sage, 2015); Kathy Charmaz, Constructing Grounded Theory (Londres: Sage, 2014), accedido 5 de marzo de 2020, http://www.sxf.uevora.pt/wp-content/uploads/2013/03/Charmaz_2006.pdf.
  7. Chairman of the Joint Chiefs of Staff, The National Military Strategy of the United States of America, 2015 (Washington, DC: Joint Chiefs of Staff, 2015), accedido 5 de marzo de 2020, https://www.jcs.mil/Portals/36/Documents/Publications/2015_National_Military_Strategy.pdf.
  8. TP 525-3-1, The U.S. Army Operating Concept, 21; Richard K. Bullock, «Theory of Effectiveness Measurement» (tesis de doctorado., Air Force Institute of Technology, 2006), 58, accedido 5 de marzo de 2020, https://www.dtic.mil/dtic/tr/fulltext/u2/a472028.pdf; Army Doctrine Reference Publication (ADRP) 1-02, OperationalTerms and Military Symbols (Washington, DC: U.S. Government Printing Office, 2012 [obsoleto]), reemplazado por el ADRP 1-02, Terms and Military Symbols, 24 de septiembre de 2013; Chairman of the Joint Chiefs of Staff, The National Military Strategy of the United States of America, 2015.
  9. Arthur L. Samuel, «Some Studies in Machine Learning Using the Game of Checkers», IBM Journal of Research and Development 3, nro. 3 (1959): 210–29; Jürgen Schmidhuber, «Deep Learning in Neural Networks: An Overview», Neural Networks 61 (enero de 2015): 85–117.
  10. Alain Droniou, Serena Ivaldi y Olivier Sigaud, «Deep Unsupervised Network for Multimodal Perception, Representation and Classification», Robotics and Autonomous Systems 71 (septiembre de 2015): 83–98; Mehryar Mohri, Afshin Rostamizadeh y Ameet Talwalkar, Foundations of Machine Learning (Cambridge, MA: MIT Press, 2012), accedido 5 de marzo de 2020, https://mitpress.mit.edu/books/foundations-machine-learning; Kriegeskorte, «Deep Neural Networks».
  11. Volodymyr Mnih et al., «Human-Level Control Through Deep Reinforcement Learning», Nature 518, nro. 7540 (26 de febrero de 2015): 529–33; Deng, «Three Classes of Deep Learning Architectures and Their Applications»; Kriegeskorte, «Deep Neural Networks»; Schmidhuber, «Deep Learning in Neural Networks».
  12. Droniou et al., «Deep Unsupervised Network»; Kriegeskorte, «Deep Neural Networks»; Mnih et al., «Human-Level Control».
  13. Deng, «Three Classes of Deep Learning»; Kriegeskorte, «Deep Neural Networks»; Schmidhuber, «Deep Learning in Neural Networks».
  14. Stew Magnuson, «DoD Making Big Push to Catch Up on Artificial Intelligence», National Defense (sitio web), 13 de junio de 2017, accedido 5 de marzo de 2020, https://www.nationaldefensemagazine.org/articles/2017/6/13/dod-making-big-push-to-catch-up-on-artificial-intelligence; JASON [grupo asesor], Perspectives on Research in Artificial Intelligence and Artificial General Intelligence Relevant to DoD (McLean, VA: MITRE Corporation, enero de 2017), accedido 5 de marzo de 2020, https://apps.dtic.mil/dtic/tr/fulltext/u2/1024432.pdf.
  15. Mark A. Milley, Memorandum for all Army leaders, «Army Readiness Guidance, Calendar Year 2016–17», 20 de enero de 2016, accedido 5 de marzo de 2020, https://www.army.mil/e2/downloads/rv7/standto/docs/army_readiness_guidance.pdf; U.S. Army Capabilities Integration Center, Robotic and Autonomous Systems Strategy; Defense Science Board, «Report on the Defense of the Science Board»; TP 525-3-1, The U.S. Army Operating Concept; Noel Sproles, «Coming to Grips with Measures of Effectiveness», Systems Engineering 3, nro. 1 (2000): 50–58.

La doctora Courtney Crosby es la científica jefe del Grupo de Innovación Estratégica de Booz Allen Hamilton. Tiene un doctorado en Ciencias de la Decisión, con un enfoque en los sistemas de inteligencia artificial del Departamento de Defensa para el campo de batalla. Crosby se ha desplegado varias veces en apoyo de varias misiones en el extranjero. En su función actual, encabeza la operativización e innovación de la IA dentro del dominio militar C5ISR. Su experiencia previa incluye investigación y desarrollo de capacidades emergentes y análisis de ciencias sociales relevantes para el trabajo en equipo entre humanos y máquinas.

Volver al inicio