Une histoire intéressante est arrivée avec OpenAI et le Pentagone. Sam Altman, le PDG de l'entreprise, a soudainement reconnu que la transaction semblait assez opportuniste et négligente. Honnêtement, il est rare de voir un leader de grande entreprise admettre aussi ouvertement les défauts de ses décisions.



En résumé, le problème était que la technologie d'IA d'OpenAI pouvait être utilisée pour la surveillance interne ou par des agences de renseignement comme la NSA. Il est clair que cela a suscité une vague de critiques et de préoccupations dans la communauté. Les défauts dans les conditions du contrat se sont révélés plus graves qu'il n'y paraissait au premier abord.

Que fait OpenAI ? Elle a introduit de nouvelles dispositions dans l'accord pour protéger ses technologies contre une utilisation potentiellement abusive. En gros, c'est une tentative de combler ces mêmes lacunes qui permettraient aux organes gouvernementaux d'utiliser l'IA pour la surveillance.

C'est un tournant intéressant dans l'histoire de l'interaction entre Big Tech et l'État. La société a été confrontée à des questions éthiques et a décidé d'assumer ses responsabilités. Bien sûr, il reste la question : pourquoi ces défauts n'ont-ils pas été anticipés dès le départ ? Quoi qu'il en soit, ce pas vers une utilisation responsable de l'IA dans les contrats publics est nécessaire.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler