Décryptages et prospectives des usages de l'influence collective

9 avr. 2018

Tom Lowe
9 avr. 2018

Revue de presse de la semaine 14

Cette semaine, nous vous proposons une revue de presse, avec une sélection de 3 articles consacrés à l’intelligence artificielle. Voici les sujets abordés : le Rapport Villani sur l’IA (frenchweb.fr) - l’IA pour détecter la violence sur les réseaux sociaux (gizmodo.com) - l’IA à des fins militaires (lefigaro.fr)

Donner un sens à l'intelligence artificielle, pour une stratégie nationale et européenne

Cédric Villani, le mathématicien et député mène depuis septembre dernier une large réflexion sur l'intelligence artificielle (IA) qui a conduit à la remise, mercredi 28 mars 2018, d’un rapport détaillé de 135 propositions sur le sujet et d'une conférence le 29 mars avec le super branding : #AIForHumanity. Que devons-nous en attendre ?

Alors que les technologies de l’IA progressent considérablement depuis le début des années 2010, que les grandes entreprises américaines du Web sont à la pointe de la recherche et que des pays comme la Chine investissent massivement dans le domaine, la France est à la traîne.

L'idée directrice de ce rapport est donc de faire de la France un leader mondial d'une vision éthique, responsable de l'IA et d'affirmer son leadership industriel.

Le rapport de M. Villani propose un grand nombre de recommandations très concrètes. Maintenant que les propositions sont sur la table, reste à voir ce que l’exécutif va en retenir.

Nous vous proposons de consulter le Rapport Villani dans son intégralité ici

 

Analyser le big data en provenance des réseaux sociaux pour détecter les éventuels signes de violence

Cet article en anglais, présente le société Social Sentinel, une entreprise d’analyse de données qui affirme qu’elle peut utiliser le même procédé d’analyse que celui utilisé par les services de police scientifique et les agences antiterroristes.

Son fondateur et PDG, Gary Margolis, explique que l’entreprise a travaillé avec des linguistes et des psychologues pour former son IA. Au total, l’homme explique avoir créé une bibliothèque de 450 000 indicateurs permettant de prévenir des comportement potentiellement malveillants. Il explique également que sa société s’est fondée sur l’analyse des publications sur les réseaux sociaux des tireurs des récentes fusillades dans des établissements pour trouver des similitudes dans leurs comportements et en dégager des schémas types.

Aux États-Unis, nombreuses sont les écoles à la recherche d’approches préventives et proactives pour faire face aux événements récents impliquant des fusillades, mais beaucoup se méfient de la solution qui consisterait en une surveillance rapprochée des réseaux sociaux pour lutter contre la violence. En effet la surveillance des réseaux sociaux par une IA n’est pas sans faille et il est tout à fait possible que l’intelligence artificielle fasse des erreurs, que certains signalement soient infondés ou que d’autres personnes mal intentionnées soient ignorées.

 

Le Projet Maven : l’intelligence artificielle au service de la guerre

Le Projet Maven : un logiciel de drone développé en collaboration avec le Ministère de la Défense des États-Unis. Il utilise une technologie de reconnaissance d’image développée par les équipes de Google sur des millions d’heures de séquences de vidéo de drones obtenues par l’armée pour aider à identifier les personnes et les objets d’intérêt. Ce projet fait partie d’un investissement de 7,4 milliards de dollars consacrés à l’Intelligence Artificielle et au traitement des données par le DoD (Ministère de la Défense des États-Unis), et a vu le Pentagone s’associer à divers universitaires et experts dans ces domaines.

Suite au scandale Cambridge Analytica impliquant Facebook, cette fois c’est Google qui est prit dans la tourmente. 3 100 de ses employés viennent de signer une pétition à leur PDG Sundar Pichai afin de demander l’annulation du projet Maven. De nombreux employés de Google sont clairement mal à l’aise avec toute implication dans ce projet. Un extrait de la pétition indique que “construire cette technologie pour aider le gouvernement américain dans la surveillance militaire, avec donc des conséquences potentiellement mortelles, n’est pas acceptable”. La lettre invoque également la devise de Google “Do not Be Evil“ (Ne soyez pas malveillants), slogan informel de Google créé par deux employés de la première heure.

Une fois de plus les questions d'éthiques sur l’utilisation de l’IA planent au-dessus des géants d'internet.

Mario Rodriguez

Responsable éditorial de la marque média Social Dynamite

Recevez un résumé de nos articles
Les articles récents
La
La Team Digitale : votre allié pour votre transformation digitaleLa team digitale se compose de personnes de l’entreprise, appétentes au digital, sur lesquelles pourra...Lire la suite
Comment apprécier la maturité digitale de vos équipes....Lire la suite
Pourquoi
Pourquoi vos commerciaux vont adorer prospecter ! Je vais vous expliquer pourquoi en 5 points : Un commercial sera toujours un commercial et sa...Lire la suite