Actuellement, même l’armée peut utiliser ChatGPT et c’est un énorme problème

Ora anche l’esercito può usare ChatGPT e questo è un problema enorme

OpenAI a changé ses politiques sans déclaration officielle et a levé l’interdiction d’utiliser son chatbot à des fins militaires. En cas de guerre, ChatGPT pourrait devenir un outil mortel, même pour les civils.

Actuellement meme larmee peut utiliser ChatGPT et cest un enorme

L’histoire s’est souvent jouée sur le terrain de la sémantique, et parfois il suffit de changer ou de supprimer quelques mots. Jusqu’au 10 janvier, dans la page « politiques d’utilisation » d’OpenAI, on pouvait lire « l’utilisation de ChatGPT est interdite pour des activités présentant un risque élevé de dommages physiques, notamment le développement d’armes » et « l’utilisation militaire et belliqueuse ». Actuellement, une formule légèrement différente est apparue, avec comme exemple « développer ou utiliser des armes », mais l’usage « militaire et belliqueux » a disparu. Un changement qui pourrait ouvrir de nouvelles opportunités commerciales pour OpenAI (bien que le porte-parole ait déclaré qu’ils avaient décidé de modifier la politique pour la rendre « plus compréhensible »).

Il n’est pas surprenant que l’entreprise ait collaboré ces derniers mois avec la DARPA, la branche du ministère américain de la Défense chargée du développement de nouvelles technologies militaires, pour créer des « outils de cybersécurité » visant à protéger les logiciels open source sur lesquels reposent les infrastructures critiques. De plus, « étant donné l’utilisation de systèmes d’intelligence artificielle pour cibler les civils à Gaza, il est important de prendre la décision de retirer les termes ‘militaire et guerre’ de la politique d’utilisation autorisée d’OpenAI », a expliqué Sarah Myers West, PDG de l’AI Now Institute et ancienne analyste des politiques en matière d’intelligence artificielle à la commission fédérale du commerce.

« Le langage utilisé dans la politique reste vague et soulève des questions sur la manière dont OpenAI entend appliquer les règles ». Selon la nouvelle règle, les militaires ne peuvent pas utiliser ChatGPT pour développer des armes, blesser, détruire ou violer les normes de sécurité. Dans ce cas, ils ne respecteraient pas la politique universelle de ne pas nuire aux autres. Certes, l’intelligence artificielle pourrait accélérer les pratiques bureaucratiques de l’armée, mais elle pourrait également piloter un missile, un drone ou élaborer de nouvelles stratégies d’attaque.

La réponse d’Open AI

« Nous avons essayé de créer une série de principes universels faciles à retenir et à appliquer, surtout maintenant que nos outils sont utilisés à l’échelle mondiale par les utilisateurs quotidiens qui peuvent également créer des chatbots personnalisés », a déclaré le porte-parole d’OpenAI, Niko Felix, dans un e-mail au journal The Intercept, qui a remarqué le changement de politique sans déclaration officielle.

« Un principe tel que ‘Ne pas nuire aux autres’ est large mais facile à comprendre et pertinent dans de nombreux contextes. De plus, nous avons spécifiquement cité les armes et les dommages causés à autrui comme des exemples clairs ». L’année dernière, OpenAI avait déclaré qu’il ne modifierait pas sa politique malgré les pressions du Pentagone et des services de renseignement américains.

Les risques d’utiliser ChatGPT à des fins militaires

Heidy Khlaaf, directrice technique chez Trail of Bits, une société de sécurité informatique, et experte en apprentissage automatique et en sécurité des systèmes autonomes, a expliqué à The Intercept : « OpenAI est bien consciente des risques et des dommages qui peuvent découler de l’utilisation de sa technologie et de ses services à des fins militaires ». De plus, tandis que la première politique d’utilisation générale interdisait explicitement l’utilisation de ChatGPT à des fins militaires, la deuxième élargit et donc confusion les limites.

« Le développement d’armes et les activités liées à l’armée et à la guerre sont légaux de différentes manières. Les implications potentielles pour la sécurité de l’IA sont significatives. Étant donné les cas bien connus de préjugés et d’hallucinations dans les grands modèles de langage (LLM) et leur manque général d’exactitude, leur utilisation dans la guerre militaire ne peut que conduire à des opérations imprécises et déformées qui pourraient aggraver les dommages et les pertes civiles.«