Estratégias para combater o ódio online - Adm & Cia

domingo, 25 de agosto de 2019

Estratégias para combater o ódio online

Figura 1 | Moderadores do Facebook removendo conteúdo relacionado a ódio.
Uma análise da dinâmica de grupos de ódio on-line em plataformas de mídia social revela por que os métodos atuais para banir conteúdo odioso são ineficazes e fornecem a base para quatro estratégias potenciais para combater o ódio online.


Como o ecossistema de ódio on-line persiste nas plataformas de mídias sociais e quais medidas podem ser tomadas para reduzir efetivamente sua presença? Escrevendo na Nature , Johnson et al. 1 abordar essas questões em um relatório cativante sobre o comportamento das comunidades de ódio on-line que residem em várias plataformas de mídia social. 

Os autores esclarecem a estrutura e a dinâmica dos grupos de ódio on-line e, informados pelos resultados, propõem quatro políticas para reduzir o conteúdo de ódio nas mídias sociais on-line.

As plataformas de mídia social on-line são desafiadoras para regulamentar, e os formuladores de políticas têm se esforçado para sugerir maneiras práticas de reduzir o ódio online. 

Esforços para banir e remover conteúdo relacionado ao ódio mostraram-se ineficazes 3 , 4.
Nos últimos anos, a incidência de relatos de discursos de ódio online tem aumentado 5 , indicando que a batalha contra a difusão de conteúdo odioso está sendo perdida, uma direção inquietante para o bem-estar e a segurança de nossa sociedade. 

Além disso, a exposição e o envolvimento com o ódio on-line nas redes sociais têm sido sugeridos para promover a agressão off-line 6 , com alguns autores de crimes de ódio violento que se engajaram com tal conteúdo 7 .

Estudos anteriores (por exemplo, ref. 8) consideraram os grupos de ódio como redes individuais ou consideraram os clusters interconectados como uma rede global. Em sua nova abordagem, Johnson e seus colegas estudaram a estrutura interconectada de uma comunidade de clusters de ódio como uma "rede de redes" 9 - 11 , em que clusters são redes interconectadas por rodovias. 

Além disso, eles propõem quatro políticas para intervenções efetivas que são informadas pelos mecanismos que seu estudo revelou governam a estrutura e a dinâmica do ecossistema de ódio on-line.

Atualmente, as empresas de mídia social devem decidir qual conteúdo proibir, mas muitas vezes precisam lidar com volumes esmagadores de conteúdo e várias restrições legais e regulatórias em diferentes países. 

As quatro intervenções recomendadas por Johnson e colaboradores - as políticas 1 a 4 - levam em conta as considerações legais associadas à proibição de grupos e usuários individuais. Notavelmente, cada uma das políticas sugeridas pelos autores poderia ser implementada independentemente por plataformas individuais sem a necessidade de compartilhar informações confidenciais entre elas, o que na maioria dos casos não é legalmente permitido sem o consentimento explícito do usuário.

Na política 1, os autores propõem a proibição de clusters de ódio relativamente pequenos, em vez de remover o maior cluster de ódio on-line. Essa política aproveita a conclusão dos autores de que a distribuição de tamanho dos clusters de ódio on-line segue uma tendência de lei de poder, de modo que a maioria dos clusters é pequena e apenas muito poucos são grandes. 

Prevê-se que a proibição do maior aglomerado de ódio leve à formação de um novo grande aglomerado a partir de uma miríade de pequenos. Por outro lado, pequenos aglomerados são altamente abundantes - o que significa que são relativamente fáceis de localizar - e a eliminação deles impede o surgimento de outros grandes aglomerados.

Proibir grupos inteiros de usuários, independentemente do tamanho dos grupos, pode resultar em indignação na comunidade de ódio e em alegações contra plataformas de mídia social de que os direitos à liberdade de expressão estão sendo suprimidos 12

Para evitar isso, a política 2 recomenda banir um pequeno número de usuários selecionados aleatoriamente de clusters de ódio on-line. Essa abordagem de segmentação aleatória não exige que os usuários tenham uma localização espacial ou o uso de informações confidenciais de perfil do usuário (que não podem ser aplicadas para segmentar usuários específicos), evitando assim possíveis violações das regulamentações de privacidade. 

No entanto, a eficácia dessa abordagem depende muito da estrutura da rede social, porque as características topológicas das redes moldam fortemente sua resiliência a falhas aleatórias ou ataques direcionados.

A política 3 alavanca a descoberta de que os clusters se auto-organizam a partir de um grupo de usuários inicialmente desordenado; Ele recomenda que os administradores de plataformas promovam a organização de grupos de usuários anti-ódio, que poderiam servir como um "sistema imunológico humano" para combater e combater os grupos de ódio. 

A política 4 explora o fato de que muitos grupos de ódio on-line têm opiniões opostas. A política sugere que os administradores da plataforma introduzam um grupo artificial de usuários para encorajar interações entre clusters de ódio que têm visões opostas, com vistas aos grupos de ódio que subsequentemente lutam com suas diferenças entre si. 

A modelagem dos autores demonstrou que tais batalhas removeriam efetivamente grandes grupos de ódio que têm visões opostas. Uma vez posto em ação, as políticas 3 e 4 exigiriam pouca intervenção direta dos administradores da plataforma; no entanto, estabelecer aglomerados opostos entre si exigiria uma engenharia meticulosa.

Os autores recomendam cautela ao avaliar as vantagens e desvantagens de adotar cada política, porque a viabilidade de implementar uma política dependerá dos recursos computacionais e humanos disponíveis e das restrições legais de privacidade. Além disso, quaisquer decisões sobre a implementação de uma política em detrimento de outra devem ser tomadas com base na análise empírica e nos dados obtidos pelo monitoramento rigoroso desses grupos.

Ao longo dos anos, tornou-se evidente que soluções eficazes para lidar com o ódio online e as questões jurídicas e de privacidade que surgem de plataformas de mídia social online não podem surgir apenas de segmentos individuais da indústria, mas exigirão um esforço conjunto de empresas de tecnologia, formuladores de políticas e pesquisadores. O estudo de Johnson e colegas fornece informações valiosas e suas políticas propostas podem servir como diretriz para futuros esforços.



Referências

  1. 1
    O Comitê de Assuntos Internos do Reino Unido. Odeio Crime: Abuso, Ódio e Extremismo Online.  sessão 2016–17 HC 609  https://publications.parliament.uk/pa/cm201617/cmselect/cmhaff/609/609.pdf(2017).
  2. 2
    Patrisse Cullors. O ódio on-line é uma ameaça mortalhttps://edition.cnn.com/2018/11/01/opinions/social-media-hate-speech-cullors/index.html (2017).
  3. 3
    Beirich, H., Hankes, K., Piggott, S., Schlatter, E. e Viets, S. O Ano do Ódio e Extremismo https://www.splcenter.org/fighting-hate/intelligence-report/2017/ ano-ódio-e-extremismo (2017).
  4. 4
    Hohmann, J. Crimes de ódio são um problema muito maior do que até mesmo as novas estatísticas do FBI mostramhttps://www.washingtonpost.com/news/powerpost/paloma/daily-202/2018/11/14/daily-202-hate- os crimes são um problema muito maior do que o mesmo-novo-fbi-statistics-show / 5beba5bd1b326b39290547e2 /? utm_term = .e203814306e8 (2018).
  5. 5
    Reitman, J. US Law Enforcement não conseguiu ver a ameaça do nacionalismo branco. Agora eles não sabem como pará-lohttps://www.nytimes.com/2018/11/03/magazine/FBI-charlottesville-white-nationalism-far-right.html (2018).
  6. 6
    Centro de Direito da Pobreza do Sul (SPLC). Grupos extremistashttps://www.splcenter.org/fighting-hate/extremist-files/groups(2018).
  7. 7
    John, A. et al. Auto-mutilação, comportamentos suicidas e cyberbullying em crianças e jovens: revisão sistemática. J. Med.Internet Res . 20 , e129 (2018).

  8. 8
    Berman, M. Procuradores dizem acusado Charleston Church Gunman auto-radicalizado on-linehttps://www.washingtonpost.com/news/post-nation/wp/2016/08/22/prosecutors-say-accused-charleston-church-gunman- auto-radicalizado-online /? utm_term = .4f17303dffd4 (2016).
  9. 9
    Pagliery, J. O Suspeito no tiroteio no Congresso foi o apoio de Bernie Sanders, fortemente anti-trunfohttp://www.cnn.com/2017/06/14/homepage2/james-hodgkinson-profile/index.html (2017).
  10. 10
    Yan, H., Simon, D. e Graef, A. Campus Killing: Suspeito é membro do grupo 'Alt-Reich' do Facebookhttp://www.cnn.com/2017/05/22/us/university-of -maryland-stabbing / index.html (2017).
  11. 11
    Amend, A. Analisando o Manifesto de Mídia Social de um Terrorista: os Posts do Shooters da Sinagoga de Pittsburgh em Gabhttps://www.splcenter.org/hatewatch/2018/10/28/analyzing-terrorists-social-media-manifesto-pittsburgh-synagogue- atiradores-posts-gab (2018).
  12. 12
    Gill, P. & Corner, E. no Terrorismo Online: Política, Direito, Tecnologia(eds Jarvis, L. et al.) Ch. 1 (Routledge, 2015).
  13. 13
    Gill, P. et al. Uso terrorista da internet pelos números quantificando comportamentos, padrões e processos. Criminol . Pol . Pública 16 , 99-117 (2017).
  14. 14
    Gill, P. Lone Ator Terrorists: Uma Análise Comportamental (Routledge, 2015).
  15. 15
    Gill, P., Horgan, J. e Deckert, P. Bombardeio sozinho: traçando as motivações e os comportamentos antecedentes dos terroristas solitários. J. Forensic Sci . 59 , 425-435 (2014).
    • Fonte: Nature

    Nenhum comentário:

    Postar um comentário

    Obrigado por comentar, volte sempre!!!

    domingo, 25 de agosto de 2019

    Estratégias para combater o ódio online

    Figura 1 | Moderadores do Facebook removendo conteúdo relacionado a ódio.
    Uma análise da dinâmica de grupos de ódio on-line em plataformas de mídia social revela por que os métodos atuais para banir conteúdo odioso são ineficazes e fornecem a base para quatro estratégias potenciais para combater o ódio online.


    Como o ecossistema de ódio on-line persiste nas plataformas de mídias sociais e quais medidas podem ser tomadas para reduzir efetivamente sua presença? Escrevendo na Nature , Johnson et al. 1 abordar essas questões em um relatório cativante sobre o comportamento das comunidades de ódio on-line que residem em várias plataformas de mídia social. 

    Os autores esclarecem a estrutura e a dinâmica dos grupos de ódio on-line e, informados pelos resultados, propõem quatro políticas para reduzir o conteúdo de ódio nas mídias sociais on-line.

    As plataformas de mídia social on-line são desafiadoras para regulamentar, e os formuladores de políticas têm se esforçado para sugerir maneiras práticas de reduzir o ódio online. 

    Esforços para banir e remover conteúdo relacionado ao ódio mostraram-se ineficazes 3 , 4.
    Nos últimos anos, a incidência de relatos de discursos de ódio online tem aumentado 5 , indicando que a batalha contra a difusão de conteúdo odioso está sendo perdida, uma direção inquietante para o bem-estar e a segurança de nossa sociedade. 

    Além disso, a exposição e o envolvimento com o ódio on-line nas redes sociais têm sido sugeridos para promover a agressão off-line 6 , com alguns autores de crimes de ódio violento que se engajaram com tal conteúdo 7 .

    Estudos anteriores (por exemplo, ref. 8) consideraram os grupos de ódio como redes individuais ou consideraram os clusters interconectados como uma rede global. Em sua nova abordagem, Johnson e seus colegas estudaram a estrutura interconectada de uma comunidade de clusters de ódio como uma "rede de redes" 9 - 11 , em que clusters são redes interconectadas por rodovias. 

    Além disso, eles propõem quatro políticas para intervenções efetivas que são informadas pelos mecanismos que seu estudo revelou governam a estrutura e a dinâmica do ecossistema de ódio on-line.

    Atualmente, as empresas de mídia social devem decidir qual conteúdo proibir, mas muitas vezes precisam lidar com volumes esmagadores de conteúdo e várias restrições legais e regulatórias em diferentes países. 

    As quatro intervenções recomendadas por Johnson e colaboradores - as políticas 1 a 4 - levam em conta as considerações legais associadas à proibição de grupos e usuários individuais. Notavelmente, cada uma das políticas sugeridas pelos autores poderia ser implementada independentemente por plataformas individuais sem a necessidade de compartilhar informações confidenciais entre elas, o que na maioria dos casos não é legalmente permitido sem o consentimento explícito do usuário.

    Na política 1, os autores propõem a proibição de clusters de ódio relativamente pequenos, em vez de remover o maior cluster de ódio on-line. Essa política aproveita a conclusão dos autores de que a distribuição de tamanho dos clusters de ódio on-line segue uma tendência de lei de poder, de modo que a maioria dos clusters é pequena e apenas muito poucos são grandes. 

    Prevê-se que a proibição do maior aglomerado de ódio leve à formação de um novo grande aglomerado a partir de uma miríade de pequenos. Por outro lado, pequenos aglomerados são altamente abundantes - o que significa que são relativamente fáceis de localizar - e a eliminação deles impede o surgimento de outros grandes aglomerados.

    Proibir grupos inteiros de usuários, independentemente do tamanho dos grupos, pode resultar em indignação na comunidade de ódio e em alegações contra plataformas de mídia social de que os direitos à liberdade de expressão estão sendo suprimidos 12

    Para evitar isso, a política 2 recomenda banir um pequeno número de usuários selecionados aleatoriamente de clusters de ódio on-line. Essa abordagem de segmentação aleatória não exige que os usuários tenham uma localização espacial ou o uso de informações confidenciais de perfil do usuário (que não podem ser aplicadas para segmentar usuários específicos), evitando assim possíveis violações das regulamentações de privacidade. 

    No entanto, a eficácia dessa abordagem depende muito da estrutura da rede social, porque as características topológicas das redes moldam fortemente sua resiliência a falhas aleatórias ou ataques direcionados.

    A política 3 alavanca a descoberta de que os clusters se auto-organizam a partir de um grupo de usuários inicialmente desordenado; Ele recomenda que os administradores de plataformas promovam a organização de grupos de usuários anti-ódio, que poderiam servir como um "sistema imunológico humano" para combater e combater os grupos de ódio. 

    A política 4 explora o fato de que muitos grupos de ódio on-line têm opiniões opostas. A política sugere que os administradores da plataforma introduzam um grupo artificial de usuários para encorajar interações entre clusters de ódio que têm visões opostas, com vistas aos grupos de ódio que subsequentemente lutam com suas diferenças entre si. 

    A modelagem dos autores demonstrou que tais batalhas removeriam efetivamente grandes grupos de ódio que têm visões opostas. Uma vez posto em ação, as políticas 3 e 4 exigiriam pouca intervenção direta dos administradores da plataforma; no entanto, estabelecer aglomerados opostos entre si exigiria uma engenharia meticulosa.

    Os autores recomendam cautela ao avaliar as vantagens e desvantagens de adotar cada política, porque a viabilidade de implementar uma política dependerá dos recursos computacionais e humanos disponíveis e das restrições legais de privacidade. Além disso, quaisquer decisões sobre a implementação de uma política em detrimento de outra devem ser tomadas com base na análise empírica e nos dados obtidos pelo monitoramento rigoroso desses grupos.

    Ao longo dos anos, tornou-se evidente que soluções eficazes para lidar com o ódio online e as questões jurídicas e de privacidade que surgem de plataformas de mídia social online não podem surgir apenas de segmentos individuais da indústria, mas exigirão um esforço conjunto de empresas de tecnologia, formuladores de políticas e pesquisadores. O estudo de Johnson e colegas fornece informações valiosas e suas políticas propostas podem servir como diretriz para futuros esforços.



    Referências

    1. 1
      O Comitê de Assuntos Internos do Reino Unido. Odeio Crime: Abuso, Ódio e Extremismo Online.  sessão 2016–17 HC 609  https://publications.parliament.uk/pa/cm201617/cmselect/cmhaff/609/609.pdf(2017).
    2. 2
      Patrisse Cullors. O ódio on-line é uma ameaça mortalhttps://edition.cnn.com/2018/11/01/opinions/social-media-hate-speech-cullors/index.html (2017).
    3. 3
      Beirich, H., Hankes, K., Piggott, S., Schlatter, E. e Viets, S. O Ano do Ódio e Extremismo https://www.splcenter.org/fighting-hate/intelligence-report/2017/ ano-ódio-e-extremismo (2017).
    4. 4
      Hohmann, J. Crimes de ódio são um problema muito maior do que até mesmo as novas estatísticas do FBI mostramhttps://www.washingtonpost.com/news/powerpost/paloma/daily-202/2018/11/14/daily-202-hate- os crimes são um problema muito maior do que o mesmo-novo-fbi-statistics-show / 5beba5bd1b326b39290547e2 /? utm_term = .e203814306e8 (2018).
    5. 5
      Reitman, J. US Law Enforcement não conseguiu ver a ameaça do nacionalismo branco. Agora eles não sabem como pará-lohttps://www.nytimes.com/2018/11/03/magazine/FBI-charlottesville-white-nationalism-far-right.html (2018).
    6. 6
      Centro de Direito da Pobreza do Sul (SPLC). Grupos extremistashttps://www.splcenter.org/fighting-hate/extremist-files/groups(2018).
    7. 7
      John, A. et al. Auto-mutilação, comportamentos suicidas e cyberbullying em crianças e jovens: revisão sistemática. J. Med.Internet Res . 20 , e129 (2018).

    8. 8
      Berman, M. Procuradores dizem acusado Charleston Church Gunman auto-radicalizado on-linehttps://www.washingtonpost.com/news/post-nation/wp/2016/08/22/prosecutors-say-accused-charleston-church-gunman- auto-radicalizado-online /? utm_term = .4f17303dffd4 (2016).
    9. 9
      Pagliery, J. O Suspeito no tiroteio no Congresso foi o apoio de Bernie Sanders, fortemente anti-trunfohttp://www.cnn.com/2017/06/14/homepage2/james-hodgkinson-profile/index.html (2017).
    10. 10
      Yan, H., Simon, D. e Graef, A. Campus Killing: Suspeito é membro do grupo 'Alt-Reich' do Facebookhttp://www.cnn.com/2017/05/22/us/university-of -maryland-stabbing / index.html (2017).
    11. 11
      Amend, A. Analisando o Manifesto de Mídia Social de um Terrorista: os Posts do Shooters da Sinagoga de Pittsburgh em Gabhttps://www.splcenter.org/hatewatch/2018/10/28/analyzing-terrorists-social-media-manifesto-pittsburgh-synagogue- atiradores-posts-gab (2018).
    12. 12
      Gill, P. & Corner, E. no Terrorismo Online: Política, Direito, Tecnologia(eds Jarvis, L. et al.) Ch. 1 (Routledge, 2015).
    13. 13
      Gill, P. et al. Uso terrorista da internet pelos números quantificando comportamentos, padrões e processos. Criminol . Pol . Pública 16 , 99-117 (2017).
    14. 14
      Gill, P. Lone Ator Terrorists: Uma Análise Comportamental (Routledge, 2015).
    15. 15
      Gill, P., Horgan, J. e Deckert, P. Bombardeio sozinho: traçando as motivações e os comportamentos antecedentes dos terroristas solitários. J. Forensic Sci . 59 , 425-435 (2014).
      • Fonte: Nature

      Nenhum comentário:

      Postar um comentário

      Obrigado por comentar, volte sempre!!!