paint-brush
Comment pirater la modération de contenu dans le métaverse : leçons du Web2.0 par@futuristiclawyer
473 lectures
473 lectures

Comment pirater la modération de contenu dans le métaverse : leçons du Web2.0

par Futuristic Lawyer7m2022/11/14
Read on Terminal Reader
Read this story w/o Javascript

Trop long; Pour lire

La modération de contenu dans le Web 2 est un problème insoluble, dit l'auteur. La modération du contenu est impossible à établir entre la liberté d'expression des utilisateurs et la censure des contenus préjudiciables par les gardiens. Sans un code de conduite clair et l'intervention du propriétaire de la plateforme, tout réseau social se détériorerait avec le temps. La solution est simple : le gros de la modération doit être effectué par les utilisateurs. La première plate-forme sociale à concevoir un système fonctionnel et "auto-modéré" où les utilisateurs sont incités à apporter des contributions précieuses et craignent de faire le contraire, occupera une position de leader dans "le métaverse" - la fusion approfondie entre les réalités virtuelles et physiques.

People Mentioned

Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - Comment pirater la modération de contenu dans le métaverse : leçons du Web2.0
Futuristic Lawyer HackerNoon profile picture


La modération de contenu dans le Web 2 est un problème insoluble.


Il est impossible d'établir une norme d'or entre la liberté d'expression des utilisateurs et la censure des contenus préjudiciables par les gardiens. Même si les lignes directrices les plus longues et les plus compréhensibles au monde étaient rédigées par 10 000 grands modèles linguistiques sur une période de 10 000 heures, elles n'engloberaient toujours pas tous les scénarios possibles où les publications et les commentaires tomberaient en dessous ou au-dessus de "la barre d'acceptabilité". D'autre part, sans un code de conduite clair et l'intervention du propriétaire de la plateforme, tout réseau social se détériorerait avec le temps.


Le comportement toxique des utilisateurs . Dans l'ensemble, l'intimidation, le harcèlement, les discours de haine, les et d'autres types de mauvaise conduite sont beaucoup trop courants dans les mondes virtuels. Une indique que cinq adultes sur six (83 %) ont subi une forme de harcèlement dans les jeux multijoueurs en ligne. Pour l'avenir, l'actuel CTO de Meta , Andrew Bosworth, que modérer ce que les gens disent ou font dans le métaverse "à n'importe quelle échelle significative est pratiquement impossible".


Comment faire en sorte que notre espace numérique commun ne devienne pas une jungle anarchique jonchée de bavardages, de spams et de harcèlement ?


Impression par DALL-E 2


À mon avis, la solution est simple : l'essentiel de la modération doit être effectué par les utilisateurs.


Un peu comme le système de points communautaires de Reddit avec un accent sur deux points :


  • Les points communautaires doivent être perçus comme précieux pour les utilisateurs.


  • Chaque utilisateur a une identité en ligne pseudonyme avec un historique et une réputation qui peuvent être audités par d'autres. La réputation doit être perçue comme précieuse pour les utilisateurs.


J'imagine que la première plate-forme sociale à concevoir un système fonctionnel et "d'auto-modération" où les utilisateurs sont incités à apporter de précieuses contributions et craignent de faire le contraire, prendra une position de leader dans le "métaverse" - la fusion croissante entre virtuel et réalités physiques.


Examinons de plus près la question de la modération.

La controverse de Ye sur Twitter

L'un des et les plus riches de l'histoire enregistrée, Ye, anciennement connu sous le nom de Kanye West, a fait une annonce surprenante il y a quelques semaines à ses +31 millions de followers sur Twitter :


' J'ai un peu sommeil ce soir mais quand je me réveille je vais mourir con 3 Sur les JUIFS. "Le plus drôle, c'est que je ne peux pas être antisémite parce que les Noirs sont aussi juifs. Vous avez joué avec moi et avez essayé de mettre à l'index quiconque s'oppose à votre programme. '"


Outre une interdiction temporaire de Twitter et une forte réaction de la presse et des médias sociaux, avec Ye après sa déclaration controversée. Adidas a mis fin au parrainage de la marque de chaussures et de vêtements de Ye, Yeezy, qui représentait .


Si Ye était un citoyen européen, il pourrait probablement être condamné à une amende ou même à une peine de prison pour avoir tenu des propos antisémites. Dans l'UE, le discours de haine n'est pas protégé par le droit à la liberté d'expression[1] alors que le droit constitutionnel à la liberté d'expression est considéré comme plus lourd aux États-Unis. Sur Twitter, le seul ensemble de règles communes qui lie les utilisateurs du monde entier sont les termes et conditions de Twitter. Un contrat privé qui ne peut être appliqué que par l'entreprise et ne justifie pas de sanction plus sévère pour les utilisateurs qu'une interdiction permanente.


Les remarques antisémites de Ye étaient de la viande rouge pour les magazines à potins et les médias grand public en raison de son énorme popularité et de son statut de célébrité. Mais imaginez que des propos discriminants, allant du « trolling innocent » aux menaces de mort crédibles à la Jeffrey Dahmer, soient postés par des utilisateurs anonymes sur les réseaux sociaux à chaque fraction de seconde de la journée. De toute évidence, aucun de ces "anons" n'a un parrainage de 1,5 milliard de dollars d'Adidas, et encore moins une image publique à perdre. Ils n'ont littéralement rien à perdre en publiant des choses sur les réseaux sociaux - ce qui s'avère être un problème.


Selon la et la psychologie humaine, si un utilisateur agit mal et est récompensé par une plus grande exposition, davantage d'utilisateurs sont susceptibles de suivre son exemple tant qu'ils peuvent le faire sans conséquences. En conséquence, la barre de la conduite sociale descend de plus en plus bas. Une expérience à laquelle de nombreuses personnes peuvent s'identifier sur Twitter.


Le "super esprit collectif" de Musk

Le nouvel « opérateur de la ligne d'assistance téléphonique pour les plaintes Twitter », Elon Musk, a fait la remarque suivante aux annonceurs après son acquisition de Twitter :




De l'intérieur de Twitter, certains utilisateurs réguliers l'appellent un "site infernal". Michelle Goldberg ne retient pas sa critique dans :


J'ai parfois décrit être sur Twitter comme rester trop tard à une mauvaise fête pleine de gens qui vous détestent. Je pense maintenant que c'était trop généreux pour Twitter. Je veux dire, même les pires fêtes se terminent. Twitter ressemble plus à une parabole existentialiste d'une fête, avec des âmes désincarnées essayant et échouant à être correctement vues, pour toujours. Il n'est pas surprenant que les utilisateurs les plus prolifiques de la plate-forme l'appellent souvent "ce site infernal".


En vérité,


Malgré les grands dangers de la polarisation et des chambres d'écho, comme une "super-intelligence cybernétique collective (avec beaucoup de marge d'amélioration)". Comme un super esprit collectif qui relie tout le monde mais sans avoir besoin de cerveau- lacets neuronaux implantés.


Joe Bak-Coleman, chercheur au Journalism Ethics and Security, Columbia University, :


« (..) les neurones sont finalement une mauvaise analogie pour le comportement humain individuel. En tant que collection de cellules avec un ADN identique destiné à vivre ou à mourir ensemble, les neurones partagent un objectif commun et n'ont aucune raison de rivaliser, de tricher ou de voler. Même si nous disposions d'un modèle complet du fonctionnement du cerveau, nous ne pourrions pas l'appliquer directement au comportement humain car il ne rendrait pas compte de la dynamique de compétition entre les humains .


Plus loin dans son essai, Joe Bak-Coleman conclut :


« La prémisse d'Elon selon laquelle Twitter peut se comporter comme une intelligence collective ne tient que si la structure du réseau et la nature des interactions sont adaptées pour promouvoir des résultats collectifs .


C'est assez simple, vraiment : si tous les utilisateurs partageaient la vision d'Elon de Twitter comme une « place publique numérique commune, où un large éventail de croyances peut être débattu de manière saine » , il n'y aurait aucun problème avec la modération du contenu. Cependant, pour beaucoup, peut-être pour la plupart des utilisateurs, Twitter est soit un « enfer », une blague, ou un endroit où les mots et les actions n'ont aucune conséquence réelle.


C'est pourquoi les utilisateurs ont besoin d'incitations pour contribuer avec des informations précieuses, honnêtes et précises. Et ils doivent craindre les conséquences de faire le contraire. Nous avons besoin d'un système de crédit social non autoritaire, modéré par le super mental collectif.

Le système de points communautaires de Reddit comme outil de modération

Je pense que pourrait être l'avenir de la modération de contenu.

L'idée est de créer une sorte de "système d'auto-modération" où les utilisateurs peuvent réellement gagner quelque chose en apportant de précieuses contributions, et d'autre part, être punis pour troller, spammer, menacer, intimider, harceler, cracher des discours de haine, ou agir contre les intérêts de la communauté de quelque manière que ce soit.


Reddit a déployé son système de points communautaires à la mi-2020 et le décrit ainsi :


Les points communautaires sont un moyen pour les Redditors de posséder une partie de leurs communautés préférées. Les modérateurs et les créateurs de contenu gagnent des points en contribuant à la communauté, et ils peuvent dépenser leurs points sur des fonctionnalités spéciales, afficher leurs points comme réputation dans la communauté et voter avec leurs points pour peser sur les décisions de la communauté.


Les points communautaires sont détenus par les utilisateurs dans un sens très réel puisqu'ils sont stockés sur une blockchain indépendamment de Reddit. Ils sont actuellement présentés à un niveau expérimental dans des subreddits tels que (Moons), (Bricks) et (Donuts). Les jetons sont distribués aux membres de la communauté et aux modérateurs en fonction des points de karma accumulés mensuellement (votes positifs et négatifs sur les publications et les commentaires).


Je vois Moons, Bricks et Donuts comme des avancées exclusives à la communauté du système de points de karma de Reddit. Pour les non connaisseurs de Reddit : les points de karma représentent les votes positifs et négatifs sur les contributions d'un utilisateur à Reddit et sont affichés publiquement comme un type de score de réputation de l'utilisateur.


Les points communautaires peuvent être considérés comme du karma Reddit dépensable et échangeable.[2] Ils peuvent actuellement être utilisés comme votes pondérés dans les pools communautaires, pour donner un pourboire aux autres utilisateurs, publier des GIF dans les commentaires, acheter des éléments numériques pour les profils d'utilisateurs sur Reddit, et ils peuvent même être .


Jusqu'à présent, l'utilité et la valeur des points de la communauté Reddit sont assez limitées. Cependant, je crois que le système de notation de crédit dans un format ou un autre pourrait être un excellent "outil intégré" pour la modération de contenu, car les "points de crédit sociaux utilisables" trouvent plus d'applications de mots réels et augmentent en valeur.


S'il y a une part de vérité dans la vision d'Elon Musk de Twitter en tant que « super-intelligence collective et cybernétique », pourquoi le contenu devrait-il être modéré par les administrateurs plutôt que par la super-intelligence elle-même ?


Il ne fait aucun doute que des modérateurs seront encore nécessaires à court terme pour supprimer les contributions haineuses et illégales dès que possible. Mais surtout dans les mondes virtuels, où la communication entre les utilisateurs se fait en temps réel, le mal est déjà fait avant que les modérateurs n'aient la possibilité d'intervenir. C'est pourquoi un système de notation de crédit devrait être mis en place sur les sites sociaux, 3D ou non, à titre préventif. La promesse de gagner des jetons communautaires pouvant être échangés, convertis et utilisés comme de l'argent réel, pour accéder à des services et à des expériences, inciterait les utilisateurs à se comporter correctement et les aiderait à déterminer avec qui ils aiment faire affaire.


Comme nous l'avons appris de Bitcoin , lorsque seulement 51 % des utilisateurs d'un système sont justes et honnêtes et ont un intérêt rationnel à rester justes et honnêtes, le système dans son ensemble fonctionne.


Visualisation des nœuds actuels sur le Lightning Network (13-11-2022) Source : //lnrouter.app/graph


Merci d'avoir lu! Inscrivez-vous à pour des publications mensuelles et des mises à jour d'écriture.


Voir l'article 17 de la Convention européenne des droits de l'homme

Voir .



Également publié

바카라사이트 바카라사이트 온라인바카라