Hier, le propriétaire de l’entreprise, Elon Musk, a fait demi-tour sur l’API Twitter, après avoir déclaré que le code alimentant à la fois les clients Twitter tiers et les robots de publication automatisés ne serait plus disponible gratuitement.
Séparément, un nouveau rapport indique que même le matériel d’abus sexuel sur enfant (CSAM) le plus courant et le plus facilement détecté reste sur la plate-forme après que Musk a juré que le supprimer était sa priorité n ° 1…
L’API Twitter sera payante
Si vous lisez cette histoire après avoir cliqué sur Netcost-security.fr’s lien sur Twittervous le faites grâce à une interface de programmation d’application (API) qui permet de tweeter automatiquement les messages dès qu’ils sont publiés.
La même API est utilisée par d’innombrables bots utilisés pour publier des liens vers tout, des dernières nouvelles aux choses amusantes comme le responsable technique qui vient de ne plus en suivre un autre.
L’API était également utilisée par des applications Twitter tierces, comme Tweetbot.
Le premier signe de problème s’est produit lorsque ces applications tierces ont cessé de fonctionner, et il s’est avéré que c’était intentionnel. Musk a déclaré plus tard que la société continuerait à proposer des API à utiliser par les robots de publication automatique, mais qu’il s’agirait d’un service payant à partir du 9 février. Les coûts proposés pour ceux-ci seraient inabordables, même pour les grands médias.
Demi-tour annoncé par Musk
L’annonce de l’API a créé un tollé, car la plupart des développeurs derrière les robots Twitter populaires ont déclaré qu’ils ne seraient plus en mesure d’offrir le service. D’autres ont souligné que l’accès gratuit et immédiat aux actualités et autres informations opportunes sur Twitter était une grande partie de son attrait, et que Musk supprimait effectivement une raison clé pour les gens d’utiliser le réseau social.
musc d’hier tweeté un demi-tour partiel sur la politique à venir.
En réponse aux commentaires, Twitter activera une API légère en écriture seule pour les bots fournissant un bon contenu gratuit
Cependant, peu semblaient convaincus que c’était suffisant.
Twitter ne parvient pas à bloquer le CSAM
En novembre de l’année dernière, musc a dit que la suppression du CSAM était la « priorité 1 ». Plus de deux mois plus tard, un New York Times rapport indique qu’il n’a même pas réussi à bloquer le CSAM le plus facilement détecté.
En effet, dit le rapport, les choses ont empiré, pas mieux.
Un test du New York Times a révélé que les images, communément appelées pédopornographie, persistaient sur la plate-forme, y compris du matériel largement diffusé que les autorités considèrent comme le plus facile à détecter et à éliminer.
Après que M. Musk a pris les rênes fin octobre, Twitter a largement éliminé ou perdu du personnel expérimenté avec le problème et n’a pas réussi à empêcher la propagation d’images abusives précédemment identifiées par les autorités, montre l’test. Twitter a également cessé de payer pour certains logiciels de détection considérés comme essentiels à ses efforts [presumably to cut costs].
Twitter affirme que la société est devenue de plus en plus agressive pour résoudre le problème, mais une expérience du journal jette un doute considérable sur cette affirmation. Il a rapidement trouvé du matériel bien connu, tout comme d’autres.
« Le volume que nous sommes en mesure de trouver avec un minimum d’effort est assez important », a déclaré Lloyd Richardson, directeur de la technologie au centre canadien. « Ce ne devrait pas être le travail de personnes externes de trouver ce type de contenu assis sur leur système. »
Apple a été contraint de suspendre ses propres plans de détection de CSAM après que des inquiétudes ont été exprimées quant au potentiel d’abus de la part de gouvernements répressifs. Enfin, en décembre, la société a annoncé qu’elle abandonnait désormais définitivement ce plan.
Découvrez cette vidéo ci-dessous (en anglais) pour plus d’actualités Apple :