;(function() { window.createMeasureObserver = (measureName) => { var markPrefix = `_uol-measure-${measureName}-${new Date().getTime()}`; performance.mark(`${markPrefix}-start`); return { end: function() { performance.mark(`${markPrefix}-end`); performance.measure(`uol-measure-${measureName}`, `${markPrefix}-start`, `${markPrefix}-end`); performance.clearMarks(`${markPrefix}-start`); performance.clearMarks(`${markPrefix}-end`); } } }; /** * Gerenciador de eventos */ window.gevent = { stack: [], RUN_ONCE: true, on: function(name, callback, once) { this.stack.push([name, callback, !!once]); }, emit: function(name, args) { for (var i = this.stack.length, item; i--;) { item = this.stack[i]; if (item[0] === name) { item[1](args); if (item[2]) { this.stack.splice(i, 1); } } } } }; var runningSearch = false; var hadAnEvent = true; var elementsToWatch = window.elementsToWatch = new Map(); var innerHeight = window.innerHeight; // timestamp da última rodada do requestAnimationFrame // É usado para limitar a procura por elementos visíveis. var lastAnimationTS = 0; // verifica se elemento está no viewport do usuário var isElementInViewport = function(el) { var rect = el.getBoundingClientRect(); var clientHeight = window.innerHeight || document.documentElement.clientHeight; // renderizando antes, evitando troca de conteúdo visível no chartbeat-related-content if(el.className.includes('related-content-front')) return true; // garante que usa ao mínimo 280px de margem para fazer o lazyload var margin = clientHeight + Math.max(280, clientHeight * 0.2); // se a base do componente está acima da altura da tela do usuário, está oculto if(rect.bottom < 0 && rect.bottom > margin * -1) { return false; } // se o topo do elemento está abaixo da altura da tela do usuário, está oculto if(rect.top > margin) { return false; } // se a posição do topo é negativa, verifica se a altura dele ainda // compensa o que já foi scrollado if(rect.top < 0 && rect.height + rect.top < 0) { return false; } return true; }; var asynxNextFreeTime = () => { return new Promise((resolve) => { if(window.requestIdleCallback) { window.requestIdleCallback(resolve, { timeout: 5000, }); } else { window.requestAnimationFrame(resolve); } }); }; var asyncValidateIfElIsInViewPort = function(promise, el) { return promise.then(() => { if(el) { if(isElementInViewport(el) == true) { const cb = elementsToWatch.get(el); // remove da lista para não ser disparado novamente elementsToWatch.delete(el); cb(); } } }).then(asynxNextFreeTime); }; // inicia o fluxo de procura de elementos procurados var look = function() { if(window.requestIdleCallback) { window.requestIdleCallback(findByVisibleElements, { timeout: 5000, }); } else { window.requestAnimationFrame(findByVisibleElements); } }; var findByVisibleElements = function(ts) { var elapsedSinceLast = ts - lastAnimationTS; // se não teve nenhum evento que possa alterar a página if(hadAnEvent == false) { return look(); } if(elementsToWatch.size == 0) { return look(); } if(runningSearch == true) { return look(); } // procura por elementos visíveis apenas 5x/seg if(elapsedSinceLast < 1000/5) { return look(); } // atualiza o último ts lastAnimationTS = ts; // reseta status de scroll para não entrar novamente aqui hadAnEvent = false; // indica que está rodando a procura por elementos no viewport runningSearch = true; const done = Array.from(elementsToWatch.keys()).reduce(asyncValidateIfElIsInViewPort, Promise.resolve()); // obtém todos os elementos que podem ter view contabilizados //elementsToWatch.forEach(function(cb, el) { // if(isElementInViewport(el) == true) { // // remove da lista para não ser disparado novamente // elementsToWatch.delete(el); // cb(el); // } //}); done.then(function() { runningSearch = false; }); // reinicia o fluxo de procura look(); }; /** * Quando o elemento `el` entrar no viewport (-20%), cb será disparado. */ window.lazyload = function(el, cb) { if(el.nodeType != Node.ELEMENT_NODE) { throw new Error("element parameter should be a Element Node"); } if(typeof cb !== 'function') { throw new Error("callback parameter should be a Function"); } elementsToWatch.set(el, cb); } var setEvent = function() { hadAnEvent = true; }; window.addEventListener('scroll', setEvent, { capture: true, ive: true }); window.addEventListener('click', setEvent, { ive: true }); window.addEventListener('resize', setEvent, { ive: true }); window.addEventListener('load', setEvent, { once: true, ive: true }); window.addEventListener('DOMContentLoaded', setEvent, { once: true, ive: true }); window.gevent.on('allJSLoadedAndCreated', setEvent, window.gevent.RUN_ONCE); // inicia a validação look(); })();
  • AssineUOL
Topo

Estudo explica bem por que moderação de conteúdo do Facebook falha tanto

Getty Images
Imagem: Getty Images

Marcella Duarte

Colaboração para Tilt, em São Paulo

09/06/2020 16h34

O Facebook precisa dar mais atenção à sua estratégia de moderação de conteúdo e parar de terceirizar o serviço. É o que conclui um relatório da Universidade de Nova York (NYU), divulgado neste final de semana.

De acordo com o estudo, o setor deveria funcionar dentro da empresa, recebendo os devidos recursos, e ter equipes em países atravessando situações sociopolíticas delicadas. Só assim é possível combater a desinformação, as fake news e outros conteúdos prejudiciais que circulam na plataforma.

Algumas das ações sugeridas no relatório são: maior número de moderadores e melhores condições de trabalho —incluindo assistência física e mental— para os moderadores, que lidam com informações perturbadoras e traumáticas todos os dias.

Moderação insuficiente

O estudo estima que usuários e o sistema de inteligência artificial sinalizam mais de 3 milhões de postagens suspeitas diariamente. A empresa reporta uma taxa de falha de moderação de 10%, o que resulta em 300 mil conteúdos erroneamente moderados todos os dias.

"Esses números parecem substanciais, mas, observando o volume do que diariamente é disseminado nos sites e aplicativos, eles são grosseiramente inadequados", disse o autor do estudo, Paul Barrett.

O Facebook se uniu a 60 organizações jornalísticas para implementar o "fact-checking" (checagem dos fatos), mas as demandas enviadas a esses grupos também estão bem acima da capacidade de verificação.

Para enfatizar o papel central dos moderadores, Barrett propõe o seguinte cenário:

Imagine como seriam as redes sociais sem ninguém removendo as postagens mais pesadas. Facebook, Twitter e YouTube (do Google) seriam inundados não apenas por spams, mas por conteúdos de bullying, neonazismo, terrorismo e pedofilia. Diante desse caos, a maior parte dos usuários abandonaria as plataformas, seguidos pelos anunciantes

Apesar de sua importância, os moderadores têm sido marginalizados, diz o relatório. Como eles também estão fisicamente distantes, o Facebook costuma falhar em reconhecer a gravidade dos conteúdos revisados.

São exemplos disso Mianmar, onde forças pró-governo usaram a plataforma para disseminar propaganda genocida; e as eleições dos EUA de 2016, quando grupos russos disseminaram desinformação e mensagens de ódio para influenciar o público.

Mas por que isso acontece? Basicamente, para gastar menos. Moderadores terceirizados atuando em países subdesenvolvidos custam menos do que funcionários em tempo integral no Vale do Silício, com escritório físico e benefícios. Barrett, que entrevistou diversos ex-moderadores durante o estudo, acredita que as pessoas são a chave para o sucesso da moderação.

As soluções

Ele sugere oito os para solucionar o problema:

  • Levar o setor de moderação para dentro da empresa, com melhor remuneração
  • Dobrar o número de moderadores de conteúdo
  • Nomear um executivo qualificado para supervisionar o serviço
  • Investir mais em moderação em "países de risco", principalmente na Ásia e na África, com times falando na língua local
  • Oferecer atendimento médico no ambiente de trabalho
  • Patrocinar pesquisas acadêmicas sobre os riscos de saúde da moderação de conteúdo
  • Apoiar regulações governamentais sobre conteúdos prejudiciais
  • Expandir o volume de 'fact-checking' para combater a desinformação

Temporariamente, em resposta às fake news e golpes relacionados ao coronavírus, o executivo-chefe Mark Zuckerberg levou a moderação de conteúdo de algumas categorias sensíveis para dentro do Facebook.

Durante o período de home office, em que precisou confiar mais na inteligência artificial, a empresa também reconheceu as limitações dos algoritmos que sinalizam conteúdos ofensivos.

Um longo caminho

A reputação do Facebook vem se degradando nos últimos anos. Esta recomendação chega em um momento delicado, após tuítes do presidente norte-americano Donald Trump que incitaram violência policial contra manifestantes pela morte de George Floyd, terem sido marcados como potencialmente perigosos.

Problemas assim são persistentes na empresa. Barrett disse que a moderação é fundamental para manter o Facebook, mas foi relegada a um papel secundário, com prestadores de serviço mal pagos e espalhados por mais de 20 locais.

Mas, todas as grandes plataformas de redes sociais sofrem do mesmo mal. O Facebook tem cerca de 15 mil moderadores de conteúdo, a maior parte deles terceirizados; o YouTube/Google tem 10 mil; e o Twitter tem 1.500; de acordo com o relatório.