Les robots sont-ils une aubaine ou un fléau ? Une entrevue avec Denis Ilin, ingénieur en chef de Jig Analytics | Cryptomonnaie

Le Prix De Solana Poursuit Sa Tendance Haussière, Les Analystes

Il ne fait aucun doute que le web3 gagne en popularité aujourd’hui, mais des défauts et des problèmes surgiront inévitablement comme pour tout nouveau concept. La triste réalité est que 40 % des utilisateurs de Web3 sont des bots, qui dévastent l’économie des jeux, grugent les budgets marketing et submergent de spam.

Denis Ilin, ingénieur principal chez Jig Analytics, qui fournit un logiciel anti-bot, m’a donné un aperçu du problème. Avec une expérience antérieure de travail chez Lido, une plate-forme décentralisée de mise de liquide, Denis a pu parler d’une riche expérience des technologies web3.

Nous avons commencé notre entretien en discutant des robots Web3 et des raisons pour lesquelles ils nuisent à l’industrie.

« Les bots sont en fait un mot à la mode pour un large éventail de programmes automatisés généraux. En particulier, il existe des bots qui automatisent des processus spécifiques qui prennent trop de temps pour que les gens le fassent manuellement. Peut-être que la connotation négative du terme « bot » provient du fait qu’Elon Musk fait référence aux spammeurs qui inondent Twitter. Ici, nous considérons les bots qui effectuent certaines tâches automatiquement ou même les bots de contrats intelligents pour obtenir un avantage injuste », a déclaré Den.

Den a donné un exemple simple du bot Cookie Clicker qui clique automatiquement sur les cookies dans le jeu. Il a déclaré que les versions les plus sophistiquées de ces robots peuvent gérer plusieurs comptes et faire la même chose à une échelle beaucoup plus grande, par opposition à un humain qui le fait manuellement. Cela se traduirait par 200 robots Cookie Clicker générant un profit x200 pour leurs propriétaires au lieu d’un seul, a-t-il déclaré.

« L’économie de marché sous-tend le play-to-earn et le web3, faisant des bots qui opèrent à grande échelle une force destructrice. Ils dévalueront vos actifs et finiront par provoquer l’effondrement de l’économie de votre produit. Non seulement ces bots nuisent à votre entreprise, mais aussi à l’industrie dans son ensemble », a déclaré Den.

Bons bots vs mauvais bots

Den a ensuite expliqué en détail le fonctionnement des bots en utilisant comme exemple les jeux de déplacement pour gagner. « Supposons que vous téléchargiez une application qui compte vos pas et vous récompense pour la distance parcourue. Son économie de jeu suppose que la plupart des gens marchent 10 000 pas par jour. Il s’agit d’un nombre moyen de pas, bien que vous puissiez faire plus de pas lors d’un voyage, ou moins lorsque vous marchez simplement pour vous rendre au travail et en revenir.

En suivant les étapes, vous gagnerez des actifs dans le jeu que vous pourrez échanger contre du bitcoin, de l’éther ou d’autres crypto-monnaies. Les mauvais acteurs utilisent les tactiques suivantes. Pour tromper le fournisseur de l’application, ils utilisent des centaines de milliers de bots qui imitent de vrais appareils mobiles. Grâce à une application mobile, ils simulent des étapes à l’aide du gyroscope du smartphone et mettent à jour ses informations de localisation pour montrer le mouvement. En fin de compte, le développeur d’applications innocent, qui voulait améliorer la santé des gens tout en gagnant de l’argent, se retrouve avec une économie en panne », a-t-il expliqué.

Néanmoins, il existe aussi de bons bots. Selon Den, l’automatisation est un processus naturel de développement.

« Encore une fois, tout se résume à définir les bots. Il existe des bots d’arbitrage et des bots de trading qui sont assez utiles, créant du buzz et profitant au marché. Un robot de centre d’appels qui vous met en relation avec le bon spécialiste n’est certainement pas une mauvaise chose. Il est généralement vrai que les bons bots l’emportent sur les mauvais, mais les mauvais ternissent la réputation des programmes d’automatisation », a déclaré Den.

Les bots Web3 vont au-delà du jeu pour gagner

Il est intéressant de voir comment les bots peuvent être utilisés dans autant d’environnements Web3 différents. Selon Den, ils peuvent être intégrés, entre autres, dans les systèmes de gouvernance de la blockchain. Il a donné l’exemple du vote quadratique (QV).

En bref, le système QV transcende la prise de décision traditionnelle une personne-un-vote en permettant aux participants d’exprimer non seulement leur support ou leur opposition à un problème, mais aussi à quel point ils le ressentent. Un participant dispose d’un certain nombre de crédits à utiliser pour voter. Un vote supplémentaire coûte un quadratique de plus qu’un vote précédent. Ainsi, grâce au vote quadratique, seuls les électeurs qui se soucient profondément de la question voteront des fois supplémentaires, augmentant ainsi leurs chances de gagner.

L’un des clients de Jig Analytics a utilisé ce système QV pour voter sur l’attribution des subventions au sein de son DAO, qu’il ne voulait pas être manipulé par des bots. Dans ce cas, les mécanismes d’empreintes digitales du bot de Jig ont réussi à détecter les votes entachés.

Les parachutages, le marketing, etc. sont également sensibles aux bots. Les robots, par exemple, peuvent prendre tout ce qui est donné dans les listes blanches en les forçant brutalement.

« Disons qu’il y a une liste blanche pour 5 000 personnes et que les bots peuvent créer les 5 000 portefeuilles, ne laissant aucune place à la concurrence. Ainsi, les spécialistes du marketing dépensent l’intégralité de leurs budgets sur des campagnes infructueuses », a déclaré Den.

Méthodes de protection contre les robots Web3

Il est évident que révéler l’identité des utilisateurs aiderait à prévenir les attaques de robots. Le défi dans ce cas est le pseudonymat, qui est un concept fondamental du web3. Contrairement à l’anonymat complet, le pseudonymat permet de surveiller les transactions associées à la même identité même si l’identité est inconnue. Il existe essentiellement trois façons de gérer les besoins de confirmation d’identité dans l’industrie de la cryptomonnaie.

Un processus KYC centralisé implique le partage de votre nom, de votre photo et d’autres informations personnelles. Un fournisseur KYC approuve votre identité au nom d’autres services tiers qui lui sont intégrés. Automatiser cela serait difficile car un bot aurait besoin de beaucoup de données personnelles et d’une vérification par téléphone/e-mail/carte de crédit.

« Les utilisateurs ont accès à ces services mais ne peuvent pas faire grand-chose à part espérer que leurs données ne fuiront pas. Dans la même veine que « Big Brother vous surveille » d’Orwel, cela indique essentiellement « Nous ne vous faisons pas confiance » – ce qui n’est guère une stratégie de préservation de la vie privée « , a déclaré Den.

Selon Den, une approche soucieuse de la vie privée et le désir d’éliminer les barrières à l’entrée sont au cœur de la stratégie de Jig. Il identifie les empreintes digitales de portefeuille associées aux humains et signale toutes les autres comme suspectes après avoir analysé une grande quantité de données.

«Nous permettons aux fabricants de produits d’assurer la sécurité de leur économie et de leur communauté en analysant de manière invisible le comportement en chaîne de ses utilisateurs. Cela rend l’expérience de l’utilisateur final sans friction et préserve la confidentialité, ce qui est un élément essentiel pour l’adoption massive et continue de la cryptomonnaie dans les industries du monde réel », a-t-il ajouté.

Mécanique basée sur la réputation

Demander à un membre d’une communauté crypto de confirmer votre identité est une autre méthode de vérification. Ceci est similaire aux services Web2 sur invitation uniquement comme Clubhouse, qui était autrefois populaire. Le système n’est cependant pas évolutif et il risque d’être compromis. L’ensemble du système pourrait être piraté une fois qu’un mauvais acteur est à l’intérieur. Ce n’est peut-être pas un énorme problème pour les services de réseaux sociaux, mais chaque fois que des finances sont en jeu, les vulnérabilités de cette nature comportent des risques énormes, a expliqué Den.

Contrats intelligents et bots

Une autre question que j’avais était de savoir si les contrats intelligents pouvaient être exploités par des bots. Selon Den, les contrats intelligents peuvent jouer le rôle de bots s’ils se comportent de manière injuste au sein d’un système. Par exemple, en imitant un service légitime, ils peuvent inciter les utilisateurs à agir en échange d’une récompense. En tout cas, ils ne dureront pas longtemps puisque la communauté va bientôt les signaler et les mettre sur liste noire.

« L’ensemble du concept de robots manipulant des contrats intelligents est une forme d’ingénierie sociale qui n’est pas protégée au niveau du système. Volontairement ou inconsciemment, les gens font des choix qui peuvent leur nuire », a déclaré Den.

Conclusion

L’automatisation est intrinsèquement bonne. Contrairement aux humains, les robots n’ont pas d’âme et agissent selon leurs programmes. Chaque fois que des bots se trouvent dans un système et sont contrôlés par celui-ci, ils sont inoffensifs. Dans les cas où des acteurs malveillants les utilisent pour exploiter des systèmes existants, il est essentiel de sensibiliser et de disposer de solutions. C’est exactement ce que font Denis Ilin et ses coéquipiers.