Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Le responsable de Palantir au Royaume-Uni affirme que c'est aux militaires de décider comment l'IA de ciblage est utilisée en temps de guerre
Le patron de Palantir UK dit que c’est aux forces armées de décider comment le ciblage par IA est utilisé dans la guerre
Il y a 3 jours
PartagerEnregistrer
Ajouter en favori sur Google
Marc Cieslak,correspondant IAet
Matt Murphy,BBC Verify
Le patron de Palantir, Louis Mosley, affirme que les forces armées sont responsables de la façon dont les systèmes d’IA sont utilisés
Le géant de la tech Palantir a fait marche arrière face aux inquiétudes selon lesquelles l’utilisation militaire de ses plateformes d’IA pourrait entraîner des risques imprévus, dans un entretien exclusif accordé à la BBC, affirmant que la manière dont la technologie est utilisée relève de la responsabilité de ses clients militaires.
Cela intervient alors que des experts ont exprimé des inquiétudes concernant l’utilisation de la plateforme de défense propulsée par l’IA de Palantir - Maven Smart System - pendant les combats et son utilisation rapportée dans des attaques américaines contre l’Iran.
Des analystes ont averti que l’usage de la plateforme par les militaires, qui aide le personnel à planifier des attaques, laisse très peu de temps pour une « vérification significative » de ses résultats et pourrait conduire à toucher des cibles incorrectes.
Mais le responsable de Palantir pour le Royaume-Uni et l’Europe, Louis Mosley, a déclaré à la BBC, lors d’un entretien approfondi, que si des plateformes d’IA comme Maven ont été « instrumentales » dans la gestion par les États-Unis de la guerre contre l’Iran, la responsabilité de la manière dont leurs résultats sont utilisés doit toujours rester « au sein de l’organisation militaire ».
« Il y a toujours un humain dans la boucle, donc il y a toujours un humain qui prend la décision ultime. C’est la configuration actuelle. »
Le Maven Smart System a été lancé par le Pentagone en 2017 et est conçu pour accélérer les décisions de ciblage militaire en rassemblant de grandes quantités de données, y compris une série de renseignements, d’images satellites et d’images de drones.
Le système analyse ces données et peut ensuite fournir des recommandations pour le ciblage. Il peut aussi suggérer le niveau de force à utiliser en fonction de la disponibilité du personnel et du matériel militaire, comme des avions.
Mais l’examen de l’utilisation de tels outils dans les combats s’est intensifié. En février, le Pentagone a annoncé qu’il allait progressivement abandonner le système d’IA Claude de l’Anthropic - qui aide à alimenter Maven - après que l’entreprise a refusé d’autoriser l’utilisation de son IA dans des armes autonomes et de la surveillance. Palantir affirme que des alternatives peuvent le remplacer.
Depuis le début de la guerre avec l’Iran, en février, les États-Unis auraient utilisé Maven pour planifier des frappes dans tout le pays.
Vidéo de démonstration du Maven Smart System de Palantir
Poussé par la BBC sur le risque que Maven suggère des cibles incorrectes - ce qui pourrait inclure des civils - Mosley a insisté sur le fait que la plateforme est uniquement destinée à servir de guide pour accélérer le processus de décision du personnel militaire et qu’elle ne doit pas être considérée comme un système de ciblage automatisé.
« Vous pouvez le voir comme un outil d’assistance », a déclaré Mosley. « Il leur permet de synthétiser d’immenses quantités d’informations que, auparavant, ils auraient dû faire manuellement, une par une. »
Cependant, lorsqu’il a été interrogé par la BBC sur le risque que des commandants, sous pression du temps, ordonnent à leurs officiers de considérer les résultats de Maven comme validés d’avance, Mosley s’est remis aux forces armées individuelles.
« C’est vraiment une question pour nos clients militaires. Ce sont eux qui décident du cadre de politique qui détermine qui a le droit de prendre quelle décision », a-t-il dit. « Ce n’est pas notre rôle. »
Depuis le 28 février, les États-Unis ont lancé plus de 11 000 frappes contre l’Iran, dont beaucoup auraient été identifiées par Maven.
L’amiral Brad Cooper, chef de l’armée américaine au Moyen-Orient, a salué les systèmes d’IA pour avoir aidé les officiers à « trier en quelques secondes d’immenses volumes de données, afin que nos dirigeants puissent couper à travers le bruit et prendre des décisions plus intelligentes plus vite que l’ennemi ne peut réagir ».
L’entreprise d’IA Anthropic cherche un expert en armes pour empêcher les utilisateurs de « mauvais usage »
OpenAI change d’accord avec l’armée américaine après une levée de boucliers
Trump ordonne au gouvernement de cesser d’utiliser Anthropic dans la bataille sur l’utilisation de l’IA
Mais certains s’inquiètent du fait que l’implication de l’IA dans la planification de mission crée des risques importants.
« Cette priorisation de la vitesse et de l’ampleur et l’usage de la force laissent ensuite très peu de temps pour une vérification significative des cibles afin de s’assurer qu’elles ne comprennent pas accidentellement des cibles civiles », a déclaré le professeur Elke Schwarz de la Queen Mary University of London.
« S’il existe un risque de tuer et que vous co-optez beaucoup de votre réflexion critique à un logiciel qui s’occupera de ces choses pour vous, alors vous devenez simplement dépendant du logiciel », a-t-elle ajouté. « C’est une course vers le bas. »
Ces dernières semaines, des responsables du Pentagone ont fait face à des questions pour savoir si des outils d’IA comme Maven ont été utilisés pour identifier des cibles lors de la frappe meurtrière contre une école dans la ville iranienne de Minab. Les responsables iraniens ont déclaré que la frappe a tué 168 personnes, dont environ 110 enfants, le jour d’ouverture de la guerre.
Au Congrès, plusieurs hauts démocrates ont appelé à un examen accru des plateformes d’IA comme Maven. La députée Sara Jacobs - membre de la commission des forces armées de la Chambre - a demandé l’instauration de règles et de réglementations clairement appliquées concernant la manière et le moment où les systèmes d’IA sont utilisés.
« Les outils d’IA ne sont pas fiables à 100 % — ils peuvent échouer de manière subtile et, pourtant, les opérateurs continuent de leur faire trop confiance », a-t-elle déclaré à NBC News le mois dernier.
« Nous avons la responsabilité d’imposer des garde-fous stricts à l’usage de l’IA par l’armée et de garantir qu’un humain est dans la boucle dans chaque décision d’utiliser une force létale, parce que le coût d’une erreur pourrait être dévastateur pour les civils et pour les membres du service qui exécutent ces missions. »
Mais Mosley a rejeté les suggestions selon lesquelles la rapidité de la plateforme de son entreprise pousserait le Pentagone à prendre des décisions plus vite et créerait potentiellement des situations dangereuses. Il a plutôt soutenu que la rapidité à laquelle les commandants passent aujourd’hui à l’action est une « conséquence de l’accroissement de l’efficacité » que Maven a permis.
En invoquant « la sécurité opérationnelle », le Pentagone a refusé de commenter lorsqu’il a été contacté par la BBC sur la manière dont des systèmes d’IA comme Maven seront utilisés à l’avenir ou sur qui serait tenu responsable en cas de problème.
Mais il semble que des responsables aux États-Unis avancent avec des plans pour intégrer davantage Maven à ses systèmes.
La semaine dernière, l’agence de presse Reuters a rapporté que le Pentagone avait désigné Maven comme « un programme officiel de référence » - l’établissant comme une technologie à intégrer à long terme dans l’ensemble de l’armée américaine.
Dans une lettre obtenue par Reuters, le secrétaire adjoint à la Défense Steve Feinberg a déclaré que la plateforme fournirait aux commandants « les derniers outils nécessaires pour détecter, dissuader et dominer nos adversaires dans tous les domaines ».
Rapports supplémentaires de Jemimah Herd
Intelligence artificielle
Guerre en Iran