paint-brush
Como hackear a moderação de conteúdo no metaverso: lições da Web 2.0 por@futuristiclawyer
473 leituras
473 leituras

Como hackear a moderação de conteúdo no metaverso: lições da Web 2.0

por Futuristic Lawyer7m2022/11/14
Read on Terminal Reader
Read this story w/o Javascript

Muito longo; Para ler

A moderação de conteúdo na Web 2 é um problema insolúvel, diz o autor. A moderação de conteúdo é impossível de separar entre a liberdade de expressão dos usuários e a censura de conteúdo nocivo dos porteiros. Sem um código de conduta claro e intervenção do proprietário da plataforma, qualquer rede social se deterioraria com o tempo. A solução é simples: a maior parte da moderação precisa ser realizada pelos usuários. A primeira plataforma social a projetar um sistema “auto-moderado” em funcionamento, onde os usuários são incentivados a fazer contribuições valiosas e temem fazer o contrário, assumirá uma posição de liderança no “metaverso” – a fusão cada vez mais profunda entre as realidades virtual e física.

People Mentioned

Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - Como hackear a moderação de conteúdo no metaverso: lições da Web 2.0
Futuristic Lawyer HackerNoon profile picture


A moderação de conteúdo na Web 2 é um problema insolúvel.


É impossível traçar um padrão de ouro entre a liberdade de expressão dos usuários e a censura de conteúdo nocivo dos porteiros. Mesmo que as diretrizes mais longas e compreensíveis do mundo fossem elaboradas por 10.000 grandes modelos de linguagem ao longo de 10.000 horas, ainda não encapsularia todos os cenários possíveis em que postagens e comentários ficariam abaixo ou acima da “barreira de aceitabilidade”. Por outro lado, sem um código de conduta claro e intervenção do proprietário da plataforma, qualquer rede social se deterioraria com o tempo.


O comportamento tóxico entre os usuários . No geral, intimidação, assédio, discurso de ódio, e outros tipos de mau comportamento são muito comuns em mundos virtuais. Um indica que cinco em cada seis adultos (83%) sofreram algum tipo de assédio em jogos multijogador online. Olhando para o futuro, o atual CTO da Meta , Andrew Bosworth, que moderar o que as pessoas dizem ou fazem no metaverso “em qualquer escala significativa é praticamente impossível”.


Como garantir que nosso espaço digital comum não se torne uma selva sem lei repleta de palavrões, spam e assédio?


Impressão por DALL-E 2


Na minha opinião, a solução é simples: a maior parte da moderação precisa ser realizada pelos usuários.


Muito parecido com o sistema de pontos da comunidade do Reddit com ênfase em dois pontos:


  • Os pontos da comunidade precisam ser percebidos como valiosos para os usuários.


  • Cada usuário tem uma identidade online pseudônima com um histórico e uma reputação que podem ser auditados por outros. A reputação precisa ser percebida como valiosa para os usuários.


Imagino que a primeira plataforma social a projetar um sistema funcional e “auto-moderado”, onde os usuários são incentivados a fazer contribuições valiosas e temem fazer o contrário, assumirá uma posição de liderança no “metaverso” - a fusão cada vez mais profunda entre o virtual e o virtual. realidades físicas.


Vamos dar uma olhada mais profunda na questão da moderação.

A polêmica de Ye no Twitter

Um dos e mais ricos da história registrada, Ye, anteriormente conhecido como Kanye West, fez um anúncio surpreendente há algumas semanas para sua multidão de +31 milhões de seguidores no Twitter :


' Estou com um pouco de sono esta noite, mas quando acordo, vou morrer com 3 On JEWISH PEOPLE. 'O engraçado é que na verdade não posso ser anti-semita porque os negros também são judeus. Vocês brincaram comigo e tentaram rejeitar qualquer um que se opusesse à sua agenda. '”


Além de uma proibição temporária do Twitter e uma forte reação da imprensa e da mídia social, com Ye após sua polêmica declaração. A Adidas rescindiu o patrocínio da marca de calçados e roupas de Ye, Yeezy, que representava .


Se Ye fosse um cidadão europeu, provavelmente poderia ser multado ou até mesmo condenado à prisão por fazer comentários anti-semitas. Na UE, o discurso de ódio não é protegido pelo direito à liberdade de expressão[1], enquanto o direito constitucional à liberdade de expressão é considerado mais pesado nos EUA. No Twitter, o único conjunto de regras comum que une usuários de todo o mundo são os termos e condições do Twitter. Um contrato privado que só pode ser aplicado pela empresa e não garante nenhuma punição mais severa para os usuários do que um banimento permanente.


Os comentários anti-semitas de Ye foram carne vermelha para revistas de fofocas e mídia convencional por causa de seu grande número de seguidores e status de celebridade. Mas, imagine que comentários discriminatórios, variando de “trollagem inocente” a ameaças de morte críveis no estilo Jeffrey Dahmer, sejam postados por usuários anônimos nas redes sociais a cada fração de segundo do dia. Obviamente, nenhum desses “anons” tem um patrocínio de $ 1,5 bilhão da Adidas, muito menos qualquer imagem pública a perder. Eles literalmente não têm nada a perder postando coisas nas redes sociais - o que acaba sendo um problema.


De acordo com a e a psicologia humana, se um usuário age mal e é recompensado com mais exposição, é provável que mais usuários sigam seu exemplo, desde que possam fazê-lo sem consequências. Como resultado, a barreira para a conduta social afunda cada vez mais. Uma experiência com a qual muitas pessoas podem se identificar no Twitter.


A “Supermente Coletiva” de Musk

O novo “Twitter Complaint Hotline Operator”, Elon Musk, fez a seguinte nota aos anunciantes após a aquisição do Twitter:




De dentro do Twitter, alguns usuários regulares se referem a ele como um “hellsite”. Michelle Goldberg não esconde suas críticas em :


Às vezes, descrevo estar no Twitter como ficar até tarde em uma festa ruim cheia de pessoas que te odeiam. Agora acho que isso foi generoso demais com o Twitter. Quer dizer, até as piores festas acabam. O Twitter é mais como uma parábola existencialista de uma festa, com almas desencarnadas tentando e falhando em serem vistas adequadamente, para sempre. Não é de surpreender que os usuários mais prolíficos da plataforma se refiram a ela como “este local infernal”.


Na verdade,


Apesar dos grandes perigos da polarização e das câmaras de eco, como uma “superinteligência cibernética coletiva (com muito espaço para melhorias)”. cordões neurais implantados.


Joe Bak-Coleman, pesquisador do Journalism Ethics and Security, da Universidade de Columbia, :


(..) os neurônios são, em última análise, uma analogia pobre para o comportamento humano individual. Como uma coleção de células com DNA idêntico destinadas a viver ou morrer juntas, os neurônios compartilham um objetivo comum e não têm motivos para competir, trapacear ou roubar. Mesmo que tivéssemos um modelo completo de como o cérebro funciona, não poderíamos aplicá-lo diretamente ao comportamento humano porque não daria conta da dinâmica competitiva entre humanos .”


Mais tarde em seu ensaio, Joe Bak-Coleman conclui:


A premissa de Elon de que o Twitter pode se comportar como uma inteligência coletiva só se sustenta se a estrutura da rede e a natureza das interações forem ajustadas para promover resultados coletivos .”


Na verdade, é bem simples: se todos os usuários compartilhassem a visão de Elon do Twitter como uma “ praça digital comum, onde uma ampla gama de crenças pode ser debatida de maneira saudável” , não haveria problemas com a moderação de conteúdo. No entanto, para muitos, talvez para a maioria dos usuários, o Twitter é um “site infernal”, uma piada ou um lugar onde palavras e ações não têm consequências reais.


É por isso que os usuários precisam de incentivos para contribuir com informações valiosas, honestas e precisas. E eles precisam temer as consequências de fazer o contrário. Precisamos de um sistema de crédito social não autoritário moderado pela supermente coletiva.

Sistema de pontos da comunidade do Reddit como uma ferramenta de moderação

Acho que pode ser o futuro da moderação de conteúdo.

A ideia é fazer uma espécie de “sistema de auto-moderação” onde os usuários possam realmente ganhar algo fazendo contribuições valiosas e, por outro lado, serem punidos por trollar, enviar spam, ameaçar, intimidar, assediar, vomitar discurso de ódio ou agindo contra os interesses da comunidade de qualquer forma.


O Reddit lançou seu sistema de pontos da comunidade em meados de 2020 e o descreve assim:


Os Community Points são uma forma de os Redditors adquirirem parte de suas comunidades favoritas. Moderadores e criadores de conteúdo ganham pontos ao contribuir para a comunidade e podem gastar seus pontos em recursos especiais, exibir seus pontos como reputação na comunidade e votar com seus pontos para avaliar as decisões da comunidade.”


Os pontos da comunidade são propriedade dos usuários em um sentido muito real, pois são armazenados em um blockchain independentemente do Reddit. Atualmente, eles são apresentados em nível experimental em subreddits como (Moons), (Bricks) e (Donuts). Os tokens são distribuídos aos membros e moderadores da comunidade de acordo com os pontos de carma acumulados mensalmente (votos positivos e negativos em postagens e comentários).


Eu vejo Moons, Bricks e Donuts como avanços exclusivos da comunidade do sistema de pontos de karma do Reddit. Para não conhecedores do Reddit: os pontos de karma representam votos positivos e negativos nas contribuições de um usuário ao Reddit e são exibidos publicamente como um tipo de pontuação de reputação do usuário.


Os pontos da comunidade podem ser pensados como karma do Reddit que pode ser gasto e negociável.[2] Atualmente, eles podem ser usados como votos ponderados em pools da comunidade, para dar gorjeta a outros usuários, postar GIFs em comentários, comprar itens digitais para perfis de usuários no Reddit e podem até ser .


Até agora, a utilidade e o valor dos pontos da comunidade Reddit são bastante limitados. No entanto, acredito que o sistema de pontuação de crédito em um formato ou outro pode ser uma excelente “ferramenta embutida” para moderação de conteúdo, pois “pontos de crédito social gastáveis” encontram mais aplicações de palavras reais e aumentam de valor.


Se há alguma verdade na visão de Elon Musk do Twitter como uma “ superinteligência cibernética coletiva ”, por que o conteúdo deveria ser moderado por administradores em vez da própria superinteligência?


Não há dúvida de que os moderadores ainda serão necessários no futuro de curto prazo para remover contribuições odiosas e ilegais o mais rápido possível. Mas especialmente em mundos virtuais, onde a comunicação entre os usuários acontece em tempo real, o estrago já está feito antes que os moderadores tenham a chance de intervir. É por isso que um sistema de pontuação de crédito deve ser implementado em sites sociais, 3D ou não, como medida preventiva. A promessa de ganhar tokens da comunidade que podem ser negociados, convertidos e usados como dinheiro real, para obter acesso a serviços e experiências, incentivaria os usuários a se comportarem adequadamente, além de ajudá-los a determinar com quem gostariam de fazer negócios.


Como aprendemos com o Bitcoin , quando apenas 51% dos usuários em um sistema são justos e honestos e têm um interesse próprio racional para permanecer justo e honesto, o sistema como um todo funciona.


Visualização dos nós atuais na Lightening Network (13-11-2022) Fonte: //lnrouter.app/graph


Obrigado por ler! Inscreva-se no para postagens mensais e atualizações de redação.


Ver Artigo 17 da Convenção Europeia dos Direitos Humanos

Ver .



Também publicado

바카라사이트 바카라사이트 온라인바카라