Édition spéciale Numéro 3 - La technologie

L'article suivant a été fourni par une source externe. Le gouvernement du Canada et le Collège militaire royal de Saint-Jean n'assument aucune responsabilité concernant la précision, l'actualité ou la fiabilité des informations fournies par les sources externes. Les utilisateurs qui désirent employer cette information devraient consulter directement la source des informations. Le contenu fourni par les sources externes n'est pas assujetti aux exigences sur les langues officielles, la protection des renseignements personnels et l'accessibilité.

 

Données massives, intelligence artificielle et algorithmes : le mirage de l’automatisation du renseignement

Au cours des deux dernières décennies, le Département de la défense et, plus largement, les institutions de sécurité se sont tournés massivement vers les technologies numériques pour assurer la sécurité nationale de l’État américain. Pourtant, malgré les promesses de maximisation et d’accélération des processus, notamment de la production de renseignement, ces technologies suscitent de vives critiques. En explorant différentes initiatives de sécurité et défense, cet article suggère que les technologies numériques fonctionnent comme un prisme déformant qui oriente la production du renseignement et créent des risques pour les droits civiques et la démocratie.

Simon Hogue, Collège militaire royal de Saint-Jean


Le Département de la défense américain (DoD) a adopté en 2018 une stratégie sur l’utilisation de l’intelligence artificielle (IA). Le document détaille les axes d’intervention à venir et les espoirs investis dans les technologies émergentes. Alimentée par le succès de l’économie numérique, la stratégie sur l’IA s’inscrit dans un courant de mise en données des institutions de sécurité et de défense américaines en cours depuis une vingtaine d’années. Malgré les promesses de maximisation et d’accélération des processus, notamment de la production de renseignement, cette mise en données et l’automatisation de la prise de décision qu’elle permet suscitent de vives critiques. Dans cet article, je pose la question des conséquences de l’utilisation des technologies émergentes sur le renseignement américain. Comment ces technologies transforment-elles la production de renseignement ? En explorant différentes initiatives de sécurité et défense, je suggère que les technologies numériques fonctionnent comme un prisme déformant qui oriente la production du renseignement et créent des risques pour la protection des droits civiques et la démocratie.

La stratégie sur l’intelligence artificielle et Project Maven, les moteurs récents de l’IA au sein de la défense américaine.

Poursuivant l’approche technocentrée de la sécurité et de la guerre initiée par la révolution des affaires militaires (RMA) au courant des années 1990 (Der Derian, 2009), la stratégie sur l’IA suit de quelques années la Directive 3000.09 du DoD encadrant l’utilisation des armes autonomes et semi-autonomes. En ce sens, la stratégie sur l’IA (DoD, 2018) s’inscrit dans ce courant technophile qui précède les récentes avancées en intelligence artificielle associées aux processus d’apprentissage profondNote de bas de page 1 et le prolonge en y ajoutant les espoirs investis dans l’IA. La stratégie répond ainsi à une diversité d’objectifs pour lesquels les technologies numériques apparaissent offrir des solutions efficaces et se présente comme la consolidation institutionnelle d’une multitude d’usages des technologies numériques en cours.

La stratégie élabore les contributions de l’IA à la réussite des missions du DoD. « [L]a capacité des machines à effectuer des tâches qui requièrent normalement l’intelligence humaine — par exemple, reconnaître des modèles, tirer des enseignements de l’expérience, tirer des conclusions, faire des prédictions ou entreprendre des actions, »Note de bas de page 2 sont présentés comme autant d’outils pour accroître la connaissance de la situation, améliorer la sécurité des équipements opérationnels, mettre en place une chaîne d’approvisionnement prédictive et rationaliser les processus d’affaires (DoD, 2018, p. 5, 11).

En parallèle, la stratégie souligne les risques associés à l’IA. Refuser de s’y investir aujourd’hui met en péril, suggère-t-on, la sécurité du pays et de l’ordre international, menacés par la Russie et la Chine, qui « travaillent agressivement » à s’assurer un avantage stratégique dans le secteur. L’utilisation de l’IA, souligne la stratégie, doit cependant s’accompagner d’une réflexion éthique afin d’assurer un équilibre entre les possibilités qu’offre la technologie et les risques qu’elle génère (DoD, 2018, p. 5).

Institutionnellement, la stratégie sur l’IA met en place le Joint Artificial Intelligence Center, lui-même sous l’autorité du Chief Information Officer. Le centre agit comme institution synchronisant les initiatives en IA de la défense, se consacrant à la recherche et au développement des nouvelles technologies numériques et à leur déploiement à grande échelle au sein de la Défense.

Le JAIC était initialement dirigé par le Lieutenant Général Jack Shanahan, ancien directeur du Project Maven, avant sa retraite à l’été 2020. La mobilité du leadership suggère la proximité institutionnelle entre le JAIC et Project Maven. Décrit par le Lt Gén. Shanahan comme « un pionnier de l’IA et de l’apprentissage-machine pour le DoD »Note de bas de page 3 (Shanahan, 2019), celui-ci sert de modèle aux initiatives du DoD en IA. Mis sur pied en 2017, Project Maven, en partenariat avec le renseignement de la défense, mobilise la puissance et la rapidité des données massives pour filtrer les séquences vidéo générées par les systèmes de surveillance par drone (Deputy Secretary of Defense, 2017).Note de bas de page 4

Espoirs et multiplication des usages au nom de la sécurité nationale

Quoique le JAIC se présente comme l’institution parapluie de l’IA et que Project Maven se soit imposé comme modèle à suivre, ni l’un ni l’autre ne peuvent prétendre représenter l’ensemble des efforts en IA déployés en vue d’assurer la sécurité nationale des États-Unis.

Contrairement aux objectifs du Project Maven, une partie de l’investissement technologique ne concerne pas directement les opérations. Ainsi, un des plus importants projets du DoD vise l’implantation d’une technologie d’infonuagique commune à l’ensemble des composantes de la Défense. Connu sous le nom de JEDI Cloud (Joint Enterprise Defense Initiative Cloud), l’ambitieux projet de mise à jour des infrastructures numérique, dont le coût pourrait grimper jusqu’à dix milliards de dollars américains, a rencontré de nombreux écueils (Deasy & Shanahan, 2019; Freedberg, 2020a). Sa réalisation demeure à ce jour incertaine, comme en témoigne la décision du JAIC de se tourner vers l’infonuagique de l’Air Force plutôt que d’attendre la mise en œuvre du JEDI (Freedberg, 2020b).

Le JEDI illustre pourtant la face cachée des investissements dans les nouvelles technologies. Les objectifs sont, ici, d’abord logistiques et cherchent à mettre à jour les outils de travail de l’administration de la Défense afin de mieux répondre aux standards actuels établis dans le milieu des affaires. Cependant, ces investissements sont indispensables à la réussite d’autres projets, par exemple le déploiement à plus grande échelle de pilotes développés localement ou encore à la constitution de la base de données interactive MARS (Machine-Assisted Analytics Rapid-Repository System) que la Defense Intelligence Agency travaille à mettre sur pied afin de tirer profit du pouvoir d’analyse des données massives (DIA Public Affairs, 2019).

De la même manière, si Project Maven est une des plus récentes initiatives connues d’utilisation de l’IA par la défense, s’y restreindre ignorerait une multitude de pratiques de sécurité déjà bien institutionnalisées. Au cœur des nouvelles technologies se situe le travail de la National Security Agency (NSA), acteur central du renseignement numérique américain et de l’exploitation des données massives. Les activités de surveillance massive et indiscriminée de la NSA rendues publiques par le lanceur d’alerte Edward Snowden au début de l’été 2013 ont suscité un vif intérêt public. Sans entrer dans le détail des pratiques et technologies déployées pour accéder aux données des communications mondiales (Crampton, 2015; Greenwald, 2014; Lyon, 2014), il est important de rappeler ici que la collecte de milliards de données soulève des problèmes opérationnels incontournables.

Comme pour les heures de séquences vidéo provenant de la surveillance par drone, même pour une armée d’analystes consacrés ne peut filtrer, catégoriser et évaluer manuellement toutes les données recueillies. Ce travail doit être automatisé, d’où le recours à de puissants algorithmes qui pourront en outre générer des alertes sur certaines actions ou personnes suspectes.

Ainsi en prenant pour exemples quelques-uns des programmes les mieux connus, on constate que la NSA a développé une panoplie d’outils pour soutenir ses analystes. BOUNDLESS INFORMANT cartographie les données collectées et laisse transparaître des données massives des tendances, à l’instar de ce que l’on retrouve sur les médias sociaux, qui pourront alerter les analystes face aux événements en cours (Greenwald & MacAskill, 2013). PRISM permet la recherche et la collecte de données dans les bases de données des partenaires privés américains (Gellman & Poitras, 2013). XKEYSCORE fonctionne comme le moteur de recherche Google Search. Il indexe en temps réel les données collectées, permet de mener des recherches larges dans la masse de données enregistrées et de programmer des alertes (Lee et al., 2015; Marquis-Boire et al., 2015). SKYNET calcule des probabilités exprimées en pourcentage représentant le risque qu’un individu soit en réalité un terroriste ou un militant (Grothoff & Porup, 2016). Tous ces outils mobilisent de diverses façons l’IA, les algorithmes et les données massives.Note de bas de page 5

Les ambitions diffèrent selon les programmes et les types de technologies déployées. Elles se rejoignent néanmoins sur la volonté de déployer les technologies numériques pour tirer profit de la mise en données rapide des sociétés occidentales, et à moindre échelle des sociétés à travers le monde. Les données produites quotidiennement sont ainsi perçues comme témoins des intentions des individus et groupes et permettraient en « reliant les points » correctement, pour reprendre l’expression consacrée, d’identifier préventivement les menaces et d’intervenir avant qu’elles ne se produisent (Amoore, 2009).

Cet objectif prédictif promu d’abord pour combattre le risque terroriste s’impose également dans les autres sphères de la sécurité. Par exemple, si le but premier des algorithmes de Project Maven est la reconnaissance d’image, le Lt Gén. Shanahan envisage à terme une technologie pouvant prédire les menaces adverses. « La prochaine grande étape… est de savoir comment faire des recommandations de raisonnement… Ou si vous avez vu ces trois choses, voici ce que nous pensons qu’il pourrait se passer en arrière-plan, » illustre-t-il. « Il est probable qu’ils déplacent un missile d’ici à ici. Et sur la base d’analyses précédentes, nous pensons qu’il y a 70 % de chances qu’ils… tirent ce missile sur cette cible pour cette raison » (Shanahan, 2019).Note de bas de page 6

Comme la multiplication des institutions et programmes consacrés le suggère, les attentes des institutions de sécurité vis-à-vis les technologies numériques sont grandes. Elles reproduisent en un sens ce mélange de fascination et de naïveté associé aux données massives que plusieurs ont observé dans la société civile. Comparée à une mythologie par les chercheuses de renommée mondiale danah boyd et Kate Crawford, « la croyance répandue que les grands ensembles de données offrent une forme supérieure d’intelligence et de connaissance qui peut générer des informations jusqu’alors impossibles, avec l’aura de vérité, d’objectivité et de précision »Note de bas de page 7 (boyd & Crawford, 2012, p. 663) est largement contesté pour les biais qu’il dissimule (van Dijck, 2014; Kitchin, 2014).

Résultats incertains, les risques réels

Les investissements massifs et les promesses de rapidité et de précision ne doivent pas faire oublier l’incertitude entourant l’efficacité de ces technologies. Certes, certains succès opérationnels ont été largement publicisés (Gallagher, 2015; Miller et al., 2013). Suite aux révélations Snowden, le directeur de la NSA, le Général Keith Alexander suggérait également que la surveillance massive et indiscriminée de la NSA avait permis l’interception de 54 attentats terroristes. La légitimité de ces chiffres a toutefois été rapidement remise en cause, faute de preuves concrètes pour soutenir les prétentions (Landau, 2013, p. 59-60).Note de bas de page 8

Les succès particuliers de la surveillance et de l’utilisation des drones ne devraient pas masquer les échecs flagrants de ces technologies, notamment les erreurs d’identification produites par les algorithmes prétendument intelligents. Zabet Amanullah a par exemple été la cible de frappes aériennes en Afghanistan, autorisées sur la base de renseignements numériques, après que son identité réelle eut été confondue avec le celle d’un chef de guerre taliban (K. Clark, 2011). De la même façon, le programme SKYNET a identifié à tort Ahmad Zaidan, journaliste d’Al-Jazeera et chef de bureau à Islamabad, comme suspect terroriste. Or, le haut taux de probabilité que SKYNET avait généré était dû à ses entrevues fréquentes avec des militants talibans, des explications contextuelles que l’IA était incapable de prendre en compte dans son calcul de probabilité (Currier et al., 2015). Les raisons sont bonnes de croire que ce type d’erreurs serait fréquent (Devereaux, 2015; Gregory, 2016, p. 140-141).

Project Maven a quant à lui été comparé à un « enfant de trois ans jouant avec son iPad » par le Général Mike Holmes (cité dans C. Clark, 2019) à cause de son incapacité à reconnaître avec certitude les objets identifiés dans les séquences vidéo, le Lt Gén. Shanahan reconnaissant lui-même un taux de succès d’au mieux 50% (Jr, 2019). Certes, la critique du Gén. Holmes démontre une compréhension limitée du processus de développement des algorithmes de reconnaissance d’objets qui nécessite un long et fastidieux travail de validation des résultats (Bucher, 2018, p. 23-28). Néanmoins, elles font foi du décalage important entre le niveau opérationnel et les capacités actuels des technologies numériques qui peuvent en outre être facilement dupés (Saugmann, 2019, p. 316).

Ces échecs et succès en demi-teinte font échos aux limitations des données massives, de l’intelligence artificielle et des algorithmes observées et illustrent plusieurs des principaux enjeux légaux, politiques et sociaux découlant de l’utilisation des technologies numériques par les institutions de sécurité.Note de bas de page 9 Les critiques remettent en question la prétention à l’objectivité des données et des résultats obtenus par les modèles d’intelligence artificielle. Les données collectées, rappellent-ils, font dès leur origine l’objet de manipulation, sous la forme de sélection et de catégorisation par exemple, et les modèles d’analyse reposent et reproduisent des postulats théoriques et biais sur la forme du monde social (Gitelman & Jackson, 2013; Kitchin, 2014, p. 4-5).

À titre d’exemple, des biais raciaux ont été observés à plusieurs reprises dans les algorithmes de reconnaissance faciale, ceux-ci éprouvant des difficultés importantes à « voir » les personnes de couleur entre autres parce que celles-ci sont absentes des modèles avec lesquels les programmeurs développent les algorithmes intelligents (Bucher, 2018, p. 27; Cheney-Lippold, 2017, p. 15).

Similairement, les probabilités de risque de SKYNET reposent sur le postulat selon lequel tous les courriers de groupes militants et terroristes dans la zone Afghanistan-Pakistan adoptent le même comportement (Aradau & Blanke, 2018, p. 17-19). Le prisme de vision généré par SKYNET est donc aveugle aux variations de comportement en plus de générer un important taux de faux positifs, ou de catégorisations erronées, créé par les individus qui reproduisent sans le savoir et de manière innocente, les comportements jugés à risque. Selon les données accessibles, les meilleurs scénarios d’analyse produits par SKYNET identifieraient à tort pas moins de 15 000 personnes mettant inutilement leur vie en péril (Grothoff & Porup, 2016).

Loin, donc, de laisser émerger de nouvelles vérités objectives autrement inaccessibles, l’analyse intelligente des données massives reproduit des préconceptions sur le monde social notamment, dans le cas qui nous intéresse, des biais par rapport à ce qui constitue une menace à la sécurité nationale. Ces biais enferment le regard des institutions de sécurité dans un prisme déformant, créant autant de failles au niveau de la sécurité que des risques humains et démocratiques.

Conclusion : pour une plus grande inclusion de la société civile

Les enjeux associés à l’utilisation des technologies numériques dépassent ainsi largement la question de la vie privée qui accapare pourtant l’essentiel du débat public. Certes, la notion traditionnelle de vie privée, imaginée comme un abri protégeant l’individu du regard de la société (Cheney-Lippold, 2017, p. 210-216), devient caduque dans le contexte de la surveillance massive et indiscriminée menée par les institutions de sécurité.Note de bas de page 10 Toutefois, à travers l’intelligence artificielle, c’est plus encore le processus de prise de décision qui se trouve bouleversé. En d’autres mots, ce n’est plus seulement l’accès aux données, mais le savoir de sécurité qui est tiré de ces données qui pose problème (Amoore & Raley, 2017; Aradau & Blanke, 2015).

Sous ce vernis d’objectivé entretenu par la « mythologie » des données massives se trouve en réalité un savoir biaisé par les a priori de la sécurité, cristallisés dans les technologies numériques. L’impossibilité de déchiffrer le processus par lequel les algorithmes parviennent à leurs résultats, l’impossibilité à pénétrer la boîte noire de l’IA, laisse les analystes humains sans ressources lorsque vient le temps de valider ou contester les conclusions algorithmiques qui leur sont présentées (Amoore & Raley, 2017, p. 5).Note de bas de page 11 Au plan légal, le mystère de la boîte noire crée des enjeux cruciaux puisqu’il devient impossible d’attribuer la responsabilité pour les actions entreprises (Schuppli, 2014).

Dans ce contexte, plutôt que d’accélérer les investissements dans les technologies numériques comme le propose la stratégie sur l’IA une pause réflexive s’impose. Étudier les conséquences des technologies une fois celles-ci bien implantées est insuffisant. La défense et les institutions de sécurité américaines et occidentales doivent faire place en amont aux politicologues, sociologues, et éthiciens de la société civile afin d’orienter les développements technologiques, même si cela signifie freiner certains élans technophiles et voir d’autres rêves brisés.

Bibliographie

Amoore, L. (2009). Algorithmic War: Everyday Geographies of the War on Terror. Antipode, 41(1), 49–69. https://doi.org/10.1111/j.1467-8330.2008.00655.x

Amoore, L., & Goede, M. de (Eds.). (2008). Risk and the War on Terror. Routledge.

Amoore, L., & Raley, R. (2017). Securing with algorithms: Knowledge, decision, sovereignty. Security Dialogue, 48(1), 1–8. https://doi.org/10.1177/0967010616680753

Aradau, C., & Blanke, T. (2015). The (Big) Data-security assemblage: Knowledge and critique. Big Data & Society, 2(2), 1–12. https://doi.org/10.1177/2053951715609066

Aradau, C., & Blanke, T. (2018). Governing others: Anomaly and the algorithmic subject of security. European Journal of International Security, 3(1), 1–21. https://doi.org/10.1017/eis.2017.14

boyd, danah, & Crawford, K. (2012). Critical Questions for Big Data. Information, Communication & Society, 15(5), 662–679. https://doi.org/10.1080/1369118x.2012.678878

Bucher, T. (2018). If...Then: Algorithmic Power and Politics. Oxford University Press.

Chamayou, G. (2015). A Theory of the Drone (J. Lloyd, Trans.). The New Press.

Cheney-Lippold, J. (2017). We Are Data. New York University Press.

Clark, C. (2019, August 21). Air Combat Commander Doesn’t Trust Project Maven’s Artificial Intelligence — Yet . Breaking Defense. https://breakingdefense.com/2019/08/air-combat-commander-doesnt-trust-project-mavens-artificial-intelligence-yet/

Clark, K. (2011). The Takhar attack: Targeted killings and the parallel worlds of US intelligence and Afghanistan. Afghanistan Analysts Network. www.afghanistan-analysts.org/wp-content/uploads/downloads/2012/10/20110511KClark_Takhar-attack_final.pdf

Conger, K., & Cameron, D. (2018, March 6). Google Is Helping the Pentagon Build AI for Drones. Gizmodo. https://gizmodo.com/google-is-helping-the-pentagon-build-ai-for-drones-1823464533

Crampton, J. W. (2015). Collect it all: national security, Big Data and governance. GeoJournal, 80, 519–531. https://doi.org/10.1007/s10708-014-9598-y

Currier, C., Greenwald, G., & Fishman, A. (2015, May 8). U.S. Government Designated Prominent Al Jazeera Journalist as “Member of Al Qaeda.” The Intercept. https://theintercept.com/2015/05/08/u-s-government-designated-prominent-al-jazeera-journalist-al-qaeda-member-put-watch-list/

Deasy, D., & Shanahan, J. (2019, August 9). Department of Defense Enterprise Cloud and its Importance to the Warfighter Media Roundtable. U.S. Department of Defense. https://www.defense.gov/Newsroom/Transcripts/Transcript/Article/1931163/department-of-defense-enterprise-cloud-and-its-importance-to-the-warfighter-med/

Deputy Secretary of Defense. (2017). Establishment of an Algorithmic Warfare Cross-Functional Team (Project Maven). U.S. Department of Defense. https://dodcio.defense.gov/Portals/0/Documents/Project%20Maven%20DSD%20Memo%2020170425.pdf

Der Derian, J. (2009). Virtuous War: Mapping the Military-Industrial Media-Entertainment Network (Second Edition). Routledge.

Devereaux, R. (2015, October 15). Manhunting in the Hindu Kush. The Intercept. https://theintercept.com/drone-papers/manhunting-in-the-hindu-kush/

DIA Public Affairs. (2019, May 23). DIA’s Vision of MARS: Decision advantage for the 21st century. Defense Intelligence Agency. https://www.dia.mil/News/Articles/Article-View/Article/1855910/dias-vision-of-mars-decision-advantage-for-the-21st-century/

DoD. (2018). Summary of the 2018 Department of Defense Artificial Intelligence Strategy: Harnessing AI to Advance our Security and Prosperity. U.S. Department of Defense. https://media.defense.gov/2019/Feb/12/2002088963/-1/-1/1/SUMMARY-OF-DOD-AI-STRATEGY.PDF

Freedberg, S. J. Jr. (2019, November 13). EXCLUSIVE Pentagon’s AI Problem Is ‘Dirty’ Data: Lt. Gen. Shanahan. Breaking Defense. https://breakingdefense.com/2019/11/exclusive-pentagons-ai-problem-is-dirty-data-lt-gen-shanahan/

Freedberg, S. J. Jr. (2020a, May 8). JEDI: Inside Amazon’s Nesting-Doll Protest. Breaking Defense. https://breakingdefense.com/2020/05/jedi-inside-amazons-nesting-doll-protest/

Freedberg, S. J. Jr. (2020b, May 27). Joint AI Center Turns To Air Force cloudONE As JEDI Stalls. Breaking Defense. https://breakingdefense.com/2020/05/joint-ai-center-turns-to-air-force-cloudone-as-jedi-stalls/

Gallagher, R. (2015, October 15). The life and death of Objective Peckham. The Intercept. https://theintercept.com/drone-papers/the-life-and-death-of-objective-peckham/

Gellman, B., & Poitras, L. (2013, June 6). U.S., British intelligence mining data from nine U.S. Internet companies in broad secret program. http://www.washingtonpost.com/investigations/us-intelligence-mining-data-from-nine-us-internet-companies-in-broad-secret-program/2013/06/06/3a0c0da8-cebf-11e2-8845-d970ccb04497_story.html

Gitelman, L., & Jackson, V. (2013). Introduction. In L. Gitelman (Ed.), “Raw Data” Is an Oxymoron (pp. 1–14). MIT Press.

Greene, T. (2019, December 11). Report: Palantir took over Project Maven, the military AI program too unethical for Google. The Next Web. https://thenextweb.com/artificial-intelligence/2019/12/11/report-palantir-took-over-project-maven-the-military-ai-program-too-unethical-for-google/

Greenwald, G. (2014). No Place to Hide: Edward Snowden, the NSA, and the U.S. Surveillance State. Random House.

Greenwald, G., & MacAskill, E. (2013, June 11). Boundless Informant: the NSA’s secret tool to track global surveillance data. http://www.theguardian.com/world/2013/jun/08/nsa-boundless-informant-global-datamining#

Gregory, D. (2016). The Territory of the Screen. MediaTropes, 6(2), 126–147. https://mediatropes.com/index.php/Mediatropes/article/view/28054

Grothoff, C., & Porup, J. M. (2016, February 16). The NSA’s SKYNET program may be killing thousands of innocent people. Ars Technica. https://arstechnica.com/information-technology/2016/02/the-nsas-skynet-program-may-be-killing-thousands-of-innocent-people/

Kitchin, R. (2014). Big Data, new epistemologies and paradigm shifts. Big Data & Society, 1(1), 1–12. https://doi.org/10.1177/2053951714528481

Landau, S. (2013). Making Sense from Snowden: What’s Significant in the NSA Surveillance Revelations. IEEE Security & Privacy, 11(4), 54–63.

Lee, M., Greenwald, G., & Marquis-Boire, M. (2015, July 2). Behind the Curtain: A Look at the Inner Workings of NSA’s XKEYSCORE. https://theintercept.com/2015/07/02/look-under-hood-xkeyscore/

Lyon, D. (2014). Surveillance, Snowden, and Big Data: Capacities, consequences, critique. Big Data & Society, 1(2), 1–13. https://doi.org/10.1177/2053951714541861

Marquis-Boire, M., Greenwald, G., & Lee, M. (2015, July 1). XKEYSCORE: NSA’s Google for the World’s Private Communications. The Intercept. https://theintercept.com/2015/07/01/nsas-google-worlds-private-communications/

Miller, G., Tate, J., & Gellman, B. (2013, October 16). Documents reveal NSA’s extensive involvement in targeted killing program. The Washington Post. https://www.washingtonpost.com/world/national-security/documents-reveal-nsas-extensive-involvement-in-targeted-killing-program/2013/10/16/29775278-3674-11e3-8a0e-4e2cf80831fc_story.html?wpisrc=al_excl

Saugmann, R. (2019). Military techno-vision: Technologies between visual ambiguity and the desire for security facts. European Journal of International Security, 4(3), 300–321. https://doi.org/10.1017/eis.2019.17

Schuppli, S. (2014). Deadly algorithms. Radical Philosophy, 187, 1–7.

Shanahan, J. N. (2019). Lt. Gen. Jack Shanahan Media Briefing on A.I.-Related Initiatives within the Department of Defense. US Department of Defense. https://www.defense.gov/Newsroom/Transcripts/Transcript/Article/1949362/lt-gen-jack-shanahan-media-briefing-on-ai-related-initiatives-within-the-depart/

van Dijck, J. (2014). Datafication, dataism and dataveillance: Big Data between scientific paradigm and ideology. Surveillance & Society, 12(2), 197–208.

 
 
 
Date de modification :